{"id":440580,"date":"2024-12-01T08:06:26","date_gmt":"2024-12-01T08:06:26","guid":{"rendered":"http:\/\/savepearlharbor.com\/?p=440580"},"modified":"-0001-11-30T00:00:00","modified_gmt":"-0001-11-29T21:00:00","slug":"","status":"publish","type":"post","link":"https:\/\/savepearlharbor.com\/?p=440580","title":{"rendered":"<span>\u0420\u0430\u0437\u0431\u0435\u0439 \u0438 \u0432\u043b\u0430\u0441\u0442\u0432\u0443\u0439: \u043a\u0430\u043a \u0441\u043e\u0437\u0434\u0430\u0442\u044c \u043a\u0430\u0441\u0442\u043e\u043c\u043d\u044b\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 \u0432 SpaCy<\/span>"},"content":{"rendered":"<div><!--[--><!--]--><\/div>\n<div id=\"post-content-body\">\n<div>\n<div class=\"article-formatted-body article-formatted-body article-formatted-body_version-2\">\n<div xmlns=\"http:\/\/www.w3.org\/1999\/xhtml\">\n<p>\u041f\u0440\u0438\u0432\u0435\u0442, \u0425\u0430\u0431\u0440! \u0421\u0435\u0433\u043e\u0434\u043d\u044f \u0440\u0430\u0441\u0441\u043a\u0430\u0436\u0435\u043c \u0432\u0430\u043c \u043e \u0442\u043e\u043c, \u043a\u0430\u043a \u0441\u043e\u0437\u0434\u0430\u0432\u0430\u0442\u044c \u0441\u043e\u0431\u0441\u0442\u0432\u0435\u043d\u043d\u044b\u0435 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440\u044b \u0441 SpaCy. \u0414\u0430-\u0434\u0430, \u0442\u043e\u0442 \u0441\u0430\u043c\u044b\u0439 <a href=\"https:\/\/spacy.io\/\">SpaCy<\/a>, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043c\u044b \u0432\u0441\u0435 \u0437\u043d\u0430\u0435\u043c \u0438 \u043b\u044e\u0431\u0438\u043c. <\/p>\n<h4>\u0417\u0430\u0447\u0435\u043c \u043d\u0430\u043c \u0441\u0432\u043e\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440?<\/h4>\n<p>\u0421\u043e\u0433\u043b\u0430\u0441\u0438\u0442\u0435\u0441\u044c, \u0441\u0442\u0430\u043d\u0434\u0430\u0440\u0442\u043d\u044b\u0435 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440\u044b \u0445\u043e\u0440\u043e\u0448\u0438, \u043d\u043e \u0438\u043d\u043e\u0433\u0434\u0430 \u0442\u0440\u0435\u0431\u0443\u0435\u0442\u0441\u044f \u0447\u0442\u043e-\u0442\u043e \u043e\u0441\u043e\u0431\u0435\u043d\u043d\u043e\u0435. \u041d\u0430\u043f\u0440\u0438\u043c\u0435\u0440, \u0440\u0430\u0437\u0431\u0438\u0432\u0430\u0442\u044c \u0442\u0435\u043a\u0441\u0442 \u043d\u0430 \u0442\u043e\u043a\u0435\u043d\u044b \u043f\u043e \u0441\u043f\u0435\u0446\u0438\u0444\u0438\u0447\u0435\u0441\u043a\u0438\u043c \u043f\u0440\u0430\u0432\u0438\u043b\u0430\u043c \u0438\u043b\u0438 \u043e\u0431\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u0442\u044c \u044d\u043a\u0437\u043e\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0435 \u044f\u0437\u044b\u043a\u0438 \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f (\u0434\u0430-\u0434\u0430, \u044f \u0441\u043c\u043e\u0442\u0440\u044e \u043d\u0430 \u0442\u0435\u0431\u044f, Brainfuck).<\/p>\n<h2>\u041d\u0430\u0447\u043d\u0435\u043c \u0441 \u043e\u0441\u043d\u043e\u0432<\/h2>\n<h4>\u0423\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0430 SpaCy<\/h4>\n<p>\u0415\u0441\u043b\u0438 \u0432\u044b \u0435\u0449\u0435 \u043d\u0435 \u0443\u0441\u0442\u0430\u043d\u043e\u0432\u0438\u043b\u0438 SpaCy, \u0441\u0430\u043c\u043e\u0435 \u0432\u0440\u0435\u043c\u044f \u044d\u0442\u043e \u0441\u0434\u0435\u043b\u0430\u0442\u044c:<\/p>\n<pre><code class=\"bash\">pip install spacy<\/code><\/pre>\n<p>\u0418 \u043d\u0435 \u0437\u0430\u0431\u0443\u0434\u044c\u0442\u0435 \u0437\u0430\u0433\u0440\u0443\u0437\u0438\u0442\u044c \u043c\u043e\u0434\u0435\u043b\u044c \u044f\u0437\u044b\u043a\u0430:<\/p>\n<pre><code class=\"bash\">python -m spacy download en_core_web_sm<\/code><\/pre>\n<h2>\u041f\u0435\u0440\u0432\u044b\u0439 \u043f\u0440\u0438\u043c\u0435\u0440<\/h2>\n<p>\u041f\u043e\u0441\u043c\u043e\u0442\u0440\u0438\u043c, \u043a\u0430\u043a \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u0441\u0442\u0430\u043d\u0434\u0430\u0440\u0442\u043d\u044b\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440:<\/p>\n<pre><code class=\"python\">import spacy  nlp = spacy.load('en_core_web_sm') doc = nlp(\"Hello, world! How are you?\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>Hello , world ! How are you ?<\/code><\/pre>\n<p>\u0412\u0441\u0435 \u043e\u0442\u043b\u0438\u0447\u043d\u043e, \u043d\u043e \u0447\u0442\u043e, \u0435\u0441\u043b\u0438 \u043d\u0430\u043c \u043d\u0443\u0436\u043d\u043e, \u0447\u0442\u043e\u0431\u044b &#171;Hello, world!&#187; \u0431\u044b\u043b\u043e \u043e\u0434\u043d\u0438\u043c \u0442\u043e\u043a\u0435\u043d\u043e\u043c? <\/p>\n<h2>\u0421\u043e\u0437\u0434\u0430\u0435\u043c \u043f\u0440\u043e\u0441\u0442\u043e\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440<\/h2>\n<h4>\u041f\u0440\u0430\u0432\u0438\u043b\u0430 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0446\u0438\u0438<\/h4>\n<p>SpaCy \u043f\u043e\u0437\u0432\u043e\u043b\u044f\u0435\u0442 \u043d\u0430\u043c \u0434\u043e\u0431\u0430\u0432\u043b\u044f\u0442\u044c \u0438\u0441\u043a\u043b\u044e\u0447\u0435\u043d\u0438\u044f \u0432 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440. \u0421\u043e\u0437\u0434\u0430\u0434\u0438\u043c \u043f\u0440\u0430\u0432\u0438\u043b\u043e, \u043a\u043e\u0442\u043e\u0440\u043e\u0435 \u043e\u0431\u044a\u0435\u0434\u0438\u043d\u0438\u0442 &#171;Hello, world!&#187; \u0432 \u043e\u0434\u0438\u043d \u0442\u043e\u043a\u0435\u043d.<\/p>\n<pre><code class=\"python\">from spacy.tokenizer import Tokenizer from spacy.lang.en import English  nlp = English()  # \u041e\u043f\u0440\u0435\u0434\u0435\u043b\u044f\u0435\u043c \u043f\u0440\u0430\u0432\u0438\u043b\u043e \u0438\u0441\u043a\u043b\u044e\u0447\u0435\u043d\u0438\u044f special_cases = {\"Hello, world!\": [{\"ORTH\": \"Hello, world!\"}]}  # \u0414\u043e\u0431\u0430\u0432\u043b\u044f\u0435\u043c \u043f\u0440\u0430\u0432\u0438\u043b\u043e \u0432 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 nlp.tokenizer.add_special_case(\"Hello, world!\", special_cases[\"Hello, world!\"])  doc = nlp(\"Hello, world! How are you?\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>Hello, world! How are you ?<\/code><\/pre>\n<p>\u0422\u0435\u043f\u0435\u0440\u044c &#171;Hello, world!&#187; \u0440\u0430\u0441\u0441\u043c\u0430\u0442\u0440\u0438\u0432\u0430\u0435\u0442\u0441\u044f \u043a\u0430\u043a \u043e\u0434\u0438\u043d \u0442\u043e\u043a\u0435\u043d.<\/p>\n<h2>\u041f\u0435\u0440\u0435\u0445\u043e\u0434\u0438\u043c \u043a \u0431\u043e\u043b\u0435\u0435 \u0441\u043b\u043e\u0436\u043d\u044b\u043c \u0432\u0435\u0449\u0430\u043c<\/h2>\n<h4>\u041f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c\u0441\u043a\u0438\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 \u043d\u0430 \u043e\u0441\u043d\u043e\u0432\u0435 \u0440\u0435\u0433\u0443\u043b\u044f\u0440\u043d\u044b\u0445 \u0432\u044b\u0440\u0430\u0436\u0435\u043d\u0438\u0439<\/h4>\n<p>\u0418\u043d\u043e\u0433\u0434\u0430 \u0441\u0442\u0430\u043d\u0434\u0430\u0440\u0442\u043d\u044b\u0445 \u043c\u0435\u0442\u043e\u0434\u043e\u0432 \u043d\u0435\u0434\u043e\u0441\u0442\u0430\u0442\u043e\u0447\u043d\u043e, \u0438 \u043d\u0443\u0436\u043d\u043e \u0441\u043e\u0437\u0434\u0430\u0442\u044c \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 \u0441 \u043d\u0443\u043b\u044f.<\/p>\n<pre><code class=\"python\">import re from spacy.tokenizer import Tokenizer from spacy.lang.en import English  nlp = English()  # \u041e\u043f\u0440\u0435\u0434\u0435\u043b\u044f\u0435\u043c \u0441\u0432\u043e\u044e \u0444\u0443\u043d\u043a\u0446\u0438\u044e \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0446\u0438\u0438 def custom_tokenizer(nlp):     prefix_re = re.compile(r'''^[\\[\\(\"']''')     suffix_re = re.compile(r'''[\\]\\)\"']$''')     infix_re = re.compile(r'''[-~]''')     simple_url_re = re.compile(r'''^https?:\/\/''')      return Tokenizer(nlp.vocab, prefix_search=prefix_re.search,                      suffix_search=suffix_re.search,                      infix_finditer=infix_re.finditer,                      token_match=simple_url_re.match)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"Check out https:\/\/example.com and don't forget to say 'Hello-world'!\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>Check out https:\/\/example.com and do n't forget to say ' Hello - world ' !<\/code><\/pre>\n<p>\u0417\u0434\u0435\u0441\u044c \u043d\u0430\u0441\u0442\u0440\u043e\u0438\u043b\u0438 \u043f\u0440\u0435\u0444\u0438\u043a\u0441\u044b, \u0441\u0443\u0444\u0444\u0438\u043a\u0441\u044b \u0438 \u0438\u043d\u0444\u0438\u043a\u0441\u044b \u0441 \u043f\u043e\u043c\u043e\u0449\u044c\u044e \u0440\u0435\u0433\u0443\u043b\u044f\u0440\u043d\u044b\u0445 \u0432\u044b\u0440\u0430\u0436\u0435\u043d\u0438\u0439.<\/p>\n<h3>\u041a\u0430\u0441\u0442\u043e\u043c\u043d\u044b\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 \u0441 \u043f\u0440\u0430\u0432\u0438\u043b\u0430\u043c\u0438<\/h3>\n<h4>Tokenizer.tokens_from_list<\/h4>\n<p>\u041f\u0440\u0435\u0434\u043f\u043e\u043b\u043e\u0436\u0438\u043c, \u0445\u043e\u0447\u0435\u0442\u0441\u044f \u0440\u0430\u0437\u0431\u0438\u0432\u0430\u0442\u044c \u0442\u0435\u043a\u0441\u0442 \u043f\u043e \u043f\u0440\u043e\u0431\u0435\u043b\u0430\u043c, \u043d\u043e \u0441\u043e\u0445\u0440\u0430\u043d\u044f\u0442\u044c \u044d\u043c\u043e\u0434\u0437\u0438 \u043a\u0430\u043a \u043e\u0442\u0434\u0435\u043b\u044c\u043d\u044b\u0435 \u0442\u043e\u043a\u0435\u043d\u044b.<\/p>\n<pre><code class=\"python\">from spacy.tokenizer import Tokenizer  def custom_tokenizer(nlp):     def tokenize(text):         tokens = text.split()         return Doc(nlp.vocab, words=tokens)     return Tokenizer(nlp.vocab, token_match=tokenize)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"I love Python \ud83d\ude0a\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>I love Python \ud83d\ude0a<\/code><\/pre>\n<p>\u0418\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043b\u0438 \u0444\u0443\u043d\u043a\u0446\u0438\u044e <code>token_match<\/code>, \u0447\u0442\u043e\u0431\u044b \u043e\u043f\u0440\u0435\u0434\u0435\u043b\u0438\u0442\u044c \u0441\u0432\u043e\u0438 \u043f\u0440\u0430\u0432\u0438\u043b\u0430 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0446\u0438\u0438.<\/p>\n<h3>\u041f\u0440\u0438\u043c\u0435\u0440 \u043f\u0440\u0438\u043c\u0435\u043d\u0435\u043d\u0438\u044f<\/h3>\n<p>\u0421\u043e\u0437\u0434\u0430\u0434\u0438\u043c \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u0431\u0443\u0434\u0435\u0442 \u043e\u0431\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u0442\u044c \u0445\u0435\u0448\u0442\u0435\u0433\u0438 \u0438 \u0443\u043f\u043e\u043c\u0438\u043d\u0430\u043d\u0438\u044f \u0432 \u0441\u043e\u0446\u0438\u0430\u043b\u044c\u043d\u044b\u0445 \u0441\u0435\u0442\u044f\u0445.<\/p>\n<pre><code class=\"python\">import re from spacy.tokenizer import Tokenizer from spacy.lang.en import English  nlp = English()  # \u0420\u0435\u0433\u0443\u043b\u044f\u0440\u043d\u043e\u0435 \u0432\u044b\u0440\u0430\u0436\u0435\u043d\u0438\u0435 \u0434\u043b\u044f \u0445\u0435\u0448\u0442\u0435\u0433\u043e\u0432 \u0438 \u0443\u043f\u043e\u043c\u0438\u043d\u0430\u043d\u0438\u0439 hashtag_mention_re = re.compile(r'''^[@#]\\w+''')  def custom_tokenizer(nlp):     return Tokenizer(nlp.vocab, token_match=hashtag_mention_re.match)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"@elonmusk i love cats #cats!\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>@elonmusk #cats<\/code><\/pre>\n<p>\u041e\u0439, \u043a\u0430\u0436\u0435\u0442\u0441\u044f, \u043c\u044b \u0447\u0442\u043e-\u0442\u043e \u0441\u0434\u0435\u043b\u0430\u043b\u0438 \u043d\u0435 \u0442\u0430\u043a. \u0418\u0441\u043f\u0440\u0430\u0432\u0438\u043c \u044d\u0442\u043e, \u0434\u043e\u0431\u0430\u0432\u0438\u0432 \u0441\u0442\u0430\u043d\u0434\u0430\u0440\u0442\u043d\u044b\u0435 \u043f\u0440\u0430\u0432\u0438\u043b\u0430.<\/p>\n<pre><code class=\"python\">def custom_tokenizer(nlp):     return Tokenizer(nlp.vocab, token_match=hashtag_mention_re.match,                      rules=nlp.Defaults.tokenizer_exceptions,                      prefix_search=nlp.tokenizer.prefix_search,                      suffix_search=nlp.tokenizer.suffix_search,                      infix_finditer=nlp.tokenizer.infix_finditer)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"@elonmusk i love cats #cats!\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>@elonmusk i love #cats !<\/code><\/pre>\n<p>\u0422\u0435\u043f\u0435\u0440\u044c \u0432\u0441\u0435 \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u043a\u0430\u043a \u043d\u0430\u0434\u043e!<\/p>\n<h2>\u0421\u043e\u0437\u0434\u0430\u043d\u0438\u0435 \u043a\u043b\u0430\u0441\u0441\u0430 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440\u0430<\/h2>\n<p>\u0415\u0441\u043b\u0438 \u043d\u0443\u0436\u043d\u043e \u0431\u043e\u043b\u0435\u0435 \u0441\u043b\u043e\u0436\u043d\u043e\u0435 \u043f\u043e\u0432\u0435\u0434\u0435\u043d\u0438\u0435, \u043c\u043e\u0436\u043d\u043e \u0441\u043e\u0437\u0434\u0430\u0442\u044c \u0441\u0432\u043e\u0439 \u043a\u043b\u0430\u0441\u0441 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440\u0430.<\/p>\n<pre><code class=\"python\">from spacy.tokenizer import Tokenizer from spacy.tokens import Doc from spacy.lang.en import English  class MyTokenizer(Tokenizer):     def __call__(self, text):         words = text.split()         return Doc(self.vocab, words=words)  nlp = English() nlp.tokenizer = MyTokenizer(nlp.vocab)  doc = nlp(\"Custom tokenizer class in action!\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>Custom tokenizer class in action!<\/code><\/pre>\n<h2>\u041e\u0431\u0440\u0430\u0431\u043e\u0442\u043a\u0430 \u0441\u043f\u0435\u0446\u0438\u0430\u043b\u044c\u043d\u044b\u0445 \u0441\u043b\u0443\u0447\u0430\u0435\u0432<\/h2>\n<h4>\u0422\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0446\u0438\u044f \u0447\u0438\u0441\u0435\u043b \u0438 \u0435\u0434\u0438\u043d\u0438\u0446 \u0438\u0437\u043c\u0435\u0440\u0435\u043d\u0438\u044f<\/h4>\n<p>\u041f\u0440\u0435\u0434\u043f\u043e\u043b\u043e\u0436\u0438\u043c, \u043d\u0443\u0436\u043d\u043e, \u0447\u0442\u043e\u0431\u044b &#171;100kg&#187; \u0431\u044b\u043b\u043e \u043e\u0434\u043d\u0438\u043c \u0442\u043e\u043a\u0435\u043d\u043e\u043c.<\/p>\n<pre><code class=\"python\">import re from spacy.tokenizer import Tokenizer from spacy.lang.en import English  nlp = English()  # \u0420\u0435\u0433\u0443\u043b\u044f\u0440\u043d\u043e\u0435 \u0432\u044b\u0440\u0430\u0436\u0435\u043d\u0438\u0435 \u0434\u043b\u044f \u0447\u0438\u0441\u0435\u043b \u0441 \u0435\u0434\u0438\u043d\u0438\u0446\u0430\u043c\u0438 number_unit_re = re.compile(r'''^\\d+(kg|lb|cm|mm)$''')  def custom_tokenizer(nlp):     return Tokenizer(nlp.vocab, token_match=number_unit_re.match,                      rules=nlp.Defaults.tokenizer_exceptions,                      prefix_search=nlp.tokenizer.prefix_search,                      suffix_search=nlp.tokenizer.suffix_search,                      infix_finditer=nlp.tokenizer.infix_finditer)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"He lifted 100kg weight.\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>He lifted 100kg weight .<\/code><\/pre>\n<h4>\u0417\u0430\u043a\u043b\u044e\u0447\u0435\u043d\u0438\u0435<\/h4>\n<p>\u0415\u0441\u043b\u0438 \u0443 \u0432\u0430\u0441 \u0432\u043e\u0437\u043d\u0438\u043a\u043d\u0443\u0442 \u0432\u043e\u043f\u0440\u043e\u0441\u044b \u0438\u043b\u0438 \u0432\u044b \u0437\u0430\u0445\u043e\u0442\u0438\u0442\u0435 \u043f\u043e\u0434\u0435\u043b\u0438\u0442\u044c\u0441\u044f \u0441\u0432\u043e\u0438\u043c\u0438 \u0437\u043d\u0430\u043d\u0438\u044f\u043c\u0438, \u043f\u0438\u0448\u0438\u0442\u0435 \u0432 \u043a\u043e\u043c\u043c\u0435\u043d\u0442\u0430\u0440\u0438\u044f\u0445.<\/p>\n<p>\u0422\u0430\u043a\u0436\u0435, \u043f\u043e\u043b\u044c\u0437\u0443\u044f\u0441\u044c \u0441\u043b\u0443\u0447\u0430\u0435\u043c, \u043d\u0430\u043f\u043e\u043c\u0438\u043d\u0430\u044e, \u0447\u0442\u043e 20 \u043d\u043e\u044f\u0431\u0440\u044f \u0432 \u0440\u0430\u043c\u043a\u0430\u0445 \u043a\u0443\u0440\u0441\u0430 \u043f\u043e NLP \u043f\u0440\u043e\u0439\u0434\u0435\u0442 \u0431\u0435\u0441\u043f\u043b\u0430\u0442\u043d\u044b\u0439 \u043e\u0442\u043a\u0440\u044b\u0442\u044b\u0439 \u0443\u0440\u043e\u043a. \u041d\u0430 \u0443\u0440\u043e\u043a\u0435 \u0443\u0447\u0430\u0441\u0442\u043d\u0438\u043a\u0438 \u0443\u0437\u043d\u0430\u044e\u0442, \u0447\u0442\u043e \u0442\u0430\u043a\u043e\u0435 \u044f\u0437\u044b\u043a\u043e\u0432\u044b\u0435 \u043c\u043e\u0434\u0435\u043b\u0438, \u043a\u0430\u043a \u0438\u0445 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u0434\u043b\u044f \u0440\u0435\u0448\u0435\u043d\u0438\u044f NLP-\u0437\u0430\u0434\u0430\u0447, \u0430 \u0442\u0430\u043a\u0436\u0435 \u0438\u0437\u0443\u0447\u0430\u0442 \u043f\u043e\u0434\u0445\u043e\u0434\u044b \u043f\u043e \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044e \u0431\u043e\u043b\u044c\u0448\u0438\u0445 \u044f\u0437\u044b\u043a\u043e\u0432\u044b\u0445 \u043c\u043e\u0434\u0435\u043b\u0435\u0439, \u0442\u0430\u043a\u0438\u0445 \u043a\u0430\u043a ChatGPT. \u0417\u0430\u043f\u0438\u0441\u0430\u0442\u044c\u0441\u044f \u043d\u0430 \u0443\u0440\u043e\u043a <a href=\"https:\/\/vk.cc\/cEJySc\">\u043c\u043e\u0436\u043d\u043e \u043f\u043e \u0441\u0441\u044b\u043b\u043a\u0435.<\/a><\/p>\n<\/p>\n<\/div>\n<\/div>\n<\/div>\n<p><!----><!----><\/div>\n<p><!----><!----><br \/> \u0441\u0441\u044b\u043b\u043a\u0430 \u043d\u0430 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b \u0441\u0442\u0430\u0442\u044c\u0438 <a href=\"https:\/\/habr.com\/ru\/articles\/855442\/\"> https:\/\/habr.com\/ru\/articles\/855442\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<div><!--[--><!--]--><\/div>\n<div id=\"post-content-body\">\n<div>\n<div class=\"article-formatted-body article-formatted-body article-formatted-body_version-2\">\n<div xmlns=\"http:\/\/www.w3.org\/1999\/xhtml\">\n<p>\u041f\u0440\u0438\u0432\u0435\u0442, \u0425\u0430\u0431\u0440! \u0421\u0435\u0433\u043e\u0434\u043d\u044f \u0440\u0430\u0441\u0441\u043a\u0430\u0436\u0435\u043c \u0432\u0430\u043c \u043e \u0442\u043e\u043c, \u043a\u0430\u043a \u0441\u043e\u0437\u0434\u0430\u0432\u0430\u0442\u044c \u0441\u043e\u0431\u0441\u0442\u0432\u0435\u043d\u043d\u044b\u0435 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440\u044b \u0441 SpaCy. \u0414\u0430-\u0434\u0430, \u0442\u043e\u0442 \u0441\u0430\u043c\u044b\u0439 <a href=\"https:\/\/spacy.io\/\">SpaCy<\/a>, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043c\u044b \u0432\u0441\u0435 \u0437\u043d\u0430\u0435\u043c \u0438 \u043b\u044e\u0431\u0438\u043c. <\/p>\n<h4>\u0417\u0430\u0447\u0435\u043c \u043d\u0430\u043c \u0441\u0432\u043e\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440?<\/h4>\n<p>\u0421\u043e\u0433\u043b\u0430\u0441\u0438\u0442\u0435\u0441\u044c, \u0441\u0442\u0430\u043d\u0434\u0430\u0440\u0442\u043d\u044b\u0435 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440\u044b \u0445\u043e\u0440\u043e\u0448\u0438, \u043d\u043e \u0438\u043d\u043e\u0433\u0434\u0430 \u0442\u0440\u0435\u0431\u0443\u0435\u0442\u0441\u044f \u0447\u0442\u043e-\u0442\u043e \u043e\u0441\u043e\u0431\u0435\u043d\u043d\u043e\u0435. \u041d\u0430\u043f\u0440\u0438\u043c\u0435\u0440, \u0440\u0430\u0437\u0431\u0438\u0432\u0430\u0442\u044c \u0442\u0435\u043a\u0441\u0442 \u043d\u0430 \u0442\u043e\u043a\u0435\u043d\u044b \u043f\u043e \u0441\u043f\u0435\u0446\u0438\u0444\u0438\u0447\u0435\u0441\u043a\u0438\u043c \u043f\u0440\u0430\u0432\u0438\u043b\u0430\u043c \u0438\u043b\u0438 \u043e\u0431\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u0442\u044c \u044d\u043a\u0437\u043e\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0435 \u044f\u0437\u044b\u043a\u0438 \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f (\u0434\u0430-\u0434\u0430, \u044f \u0441\u043c\u043e\u0442\u0440\u044e \u043d\u0430 \u0442\u0435\u0431\u044f, Brainfuck).<\/p>\n<h2>\u041d\u0430\u0447\u043d\u0435\u043c \u0441 \u043e\u0441\u043d\u043e\u0432<\/h2>\n<h4>\u0423\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0430 SpaCy<\/h4>\n<p>\u0415\u0441\u043b\u0438 \u0432\u044b \u0435\u0449\u0435 \u043d\u0435 \u0443\u0441\u0442\u0430\u043d\u043e\u0432\u0438\u043b\u0438 SpaCy, \u0441\u0430\u043c\u043e\u0435 \u0432\u0440\u0435\u043c\u044f \u044d\u0442\u043e \u0441\u0434\u0435\u043b\u0430\u0442\u044c:<\/p>\n<pre><code class=\"bash\">pip install spacy<\/code><\/pre>\n<p>\u0418 \u043d\u0435 \u0437\u0430\u0431\u0443\u0434\u044c\u0442\u0435 \u0437\u0430\u0433\u0440\u0443\u0437\u0438\u0442\u044c \u043c\u043e\u0434\u0435\u043b\u044c \u044f\u0437\u044b\u043a\u0430:<\/p>\n<pre><code class=\"bash\">python -m spacy download en_core_web_sm<\/code><\/pre>\n<h2>\u041f\u0435\u0440\u0432\u044b\u0439 \u043f\u0440\u0438\u043c\u0435\u0440<\/h2>\n<p>\u041f\u043e\u0441\u043c\u043e\u0442\u0440\u0438\u043c, \u043a\u0430\u043a \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u0441\u0442\u0430\u043d\u0434\u0430\u0440\u0442\u043d\u044b\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440:<\/p>\n<pre><code class=\"python\">import spacy  nlp = spacy.load('en_core_web_sm') doc = nlp(\"Hello, world! How are you?\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>Hello , world ! How are you ?<\/code><\/pre>\n<p>\u0412\u0441\u0435 \u043e\u0442\u043b\u0438\u0447\u043d\u043e, \u043d\u043e \u0447\u0442\u043e, \u0435\u0441\u043b\u0438 \u043d\u0430\u043c \u043d\u0443\u0436\u043d\u043e, \u0447\u0442\u043e\u0431\u044b &#171;Hello, world!&#187; \u0431\u044b\u043b\u043e \u043e\u0434\u043d\u0438\u043c \u0442\u043e\u043a\u0435\u043d\u043e\u043c? <\/p>\n<h2>\u0421\u043e\u0437\u0434\u0430\u0435\u043c \u043f\u0440\u043e\u0441\u0442\u043e\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440<\/h2>\n<h4>\u041f\u0440\u0430\u0432\u0438\u043b\u0430 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0446\u0438\u0438<\/h4>\n<p>SpaCy \u043f\u043e\u0437\u0432\u043e\u043b\u044f\u0435\u0442 \u043d\u0430\u043c \u0434\u043e\u0431\u0430\u0432\u043b\u044f\u0442\u044c \u0438\u0441\u043a\u043b\u044e\u0447\u0435\u043d\u0438\u044f \u0432 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440. \u0421\u043e\u0437\u0434\u0430\u0434\u0438\u043c \u043f\u0440\u0430\u0432\u0438\u043b\u043e, \u043a\u043e\u0442\u043e\u0440\u043e\u0435 \u043e\u0431\u044a\u0435\u0434\u0438\u043d\u0438\u0442 &#171;Hello, world!&#187; \u0432 \u043e\u0434\u0438\u043d \u0442\u043e\u043a\u0435\u043d.<\/p>\n<pre><code class=\"python\">from spacy.tokenizer import Tokenizer from spacy.lang.en import English  nlp = English()  # \u041e\u043f\u0440\u0435\u0434\u0435\u043b\u044f\u0435\u043c \u043f\u0440\u0430\u0432\u0438\u043b\u043e \u0438\u0441\u043a\u043b\u044e\u0447\u0435\u043d\u0438\u044f special_cases = {\"Hello, world!\": [{\"ORTH\": \"Hello, world!\"}]}  # \u0414\u043e\u0431\u0430\u0432\u043b\u044f\u0435\u043c \u043f\u0440\u0430\u0432\u0438\u043b\u043e \u0432 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 nlp.tokenizer.add_special_case(\"Hello, world!\", special_cases[\"Hello, world!\"])  doc = nlp(\"Hello, world! How are you?\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>Hello, world! How are you ?<\/code><\/pre>\n<p>\u0422\u0435\u043f\u0435\u0440\u044c &#171;Hello, world!&#187; \u0440\u0430\u0441\u0441\u043c\u0430\u0442\u0440\u0438\u0432\u0430\u0435\u0442\u0441\u044f \u043a\u0430\u043a \u043e\u0434\u0438\u043d \u0442\u043e\u043a\u0435\u043d.<\/p>\n<h2>\u041f\u0435\u0440\u0435\u0445\u043e\u0434\u0438\u043c \u043a \u0431\u043e\u043b\u0435\u0435 \u0441\u043b\u043e\u0436\u043d\u044b\u043c \u0432\u0435\u0449\u0430\u043c<\/h2>\n<h4>\u041f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c\u0441\u043a\u0438\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 \u043d\u0430 \u043e\u0441\u043d\u043e\u0432\u0435 \u0440\u0435\u0433\u0443\u043b\u044f\u0440\u043d\u044b\u0445 \u0432\u044b\u0440\u0430\u0436\u0435\u043d\u0438\u0439<\/h4>\n<p>\u0418\u043d\u043e\u0433\u0434\u0430 \u0441\u0442\u0430\u043d\u0434\u0430\u0440\u0442\u043d\u044b\u0445 \u043c\u0435\u0442\u043e\u0434\u043e\u0432 \u043d\u0435\u0434\u043e\u0441\u0442\u0430\u0442\u043e\u0447\u043d\u043e, \u0438 \u043d\u0443\u0436\u043d\u043e \u0441\u043e\u0437\u0434\u0430\u0442\u044c \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 \u0441 \u043d\u0443\u043b\u044f.<\/p>\n<pre><code class=\"python\">import re from spacy.tokenizer import Tokenizer from spacy.lang.en import English  nlp = English()  # \u041e\u043f\u0440\u0435\u0434\u0435\u043b\u044f\u0435\u043c \u0441\u0432\u043e\u044e \u0444\u0443\u043d\u043a\u0446\u0438\u044e \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0446\u0438\u0438 def custom_tokenizer(nlp):     prefix_re = re.compile(r'''^[\\[\\(\"']''')     suffix_re = re.compile(r'''[\\]\\)\"']$''')     infix_re = re.compile(r'''[-~]''')     simple_url_re = re.compile(r'''^https?:\/\/''')      return Tokenizer(nlp.vocab, prefix_search=prefix_re.search,                      suffix_search=suffix_re.search,                      infix_finditer=infix_re.finditer,                      token_match=simple_url_re.match)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"Check out https:\/\/example.com and don't forget to say 'Hello-world'!\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>Check out https:\/\/example.com and do n't forget to say ' Hello - world ' !<\/code><\/pre>\n<p>\u0417\u0434\u0435\u0441\u044c \u043d\u0430\u0441\u0442\u0440\u043e\u0438\u043b\u0438 \u043f\u0440\u0435\u0444\u0438\u043a\u0441\u044b, \u0441\u0443\u0444\u0444\u0438\u043a\u0441\u044b \u0438 \u0438\u043d\u0444\u0438\u043a\u0441\u044b \u0441 \u043f\u043e\u043c\u043e\u0449\u044c\u044e \u0440\u0435\u0433\u0443\u043b\u044f\u0440\u043d\u044b\u0445 \u0432\u044b\u0440\u0430\u0436\u0435\u043d\u0438\u0439.<\/p>\n<h3>\u041a\u0430\u0441\u0442\u043e\u043c\u043d\u044b\u0439 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440 \u0441 \u043f\u0440\u0430\u0432\u0438\u043b\u0430\u043c\u0438<\/h3>\n<h4>Tokenizer.tokens_from_list<\/h4>\n<p>\u041f\u0440\u0435\u0434\u043f\u043e\u043b\u043e\u0436\u0438\u043c, \u0445\u043e\u0447\u0435\u0442\u0441\u044f \u0440\u0430\u0437\u0431\u0438\u0432\u0430\u0442\u044c \u0442\u0435\u043a\u0441\u0442 \u043f\u043e \u043f\u0440\u043e\u0431\u0435\u043b\u0430\u043c, \u043d\u043e \u0441\u043e\u0445\u0440\u0430\u043d\u044f\u0442\u044c \u044d\u043c\u043e\u0434\u0437\u0438 \u043a\u0430\u043a \u043e\u0442\u0434\u0435\u043b\u044c\u043d\u044b\u0435 \u0442\u043e\u043a\u0435\u043d\u044b.<\/p>\n<pre><code class=\"python\">from spacy.tokenizer import Tokenizer  def custom_tokenizer(nlp):     def tokenize(text):         tokens = text.split()         return Doc(nlp.vocab, words=tokens)     return Tokenizer(nlp.vocab, token_match=tokenize)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"I love Python \ud83d\ude0a\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>I love Python \ud83d\ude0a<\/code><\/pre>\n<p>\u0418\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043b\u0438 \u0444\u0443\u043d\u043a\u0446\u0438\u044e <code>token_match<\/code>, \u0447\u0442\u043e\u0431\u044b \u043e\u043f\u0440\u0435\u0434\u0435\u043b\u0438\u0442\u044c \u0441\u0432\u043e\u0438 \u043f\u0440\u0430\u0432\u0438\u043b\u0430 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0446\u0438\u0438.<\/p>\n<h3>\u041f\u0440\u0438\u043c\u0435\u0440 \u043f\u0440\u0438\u043c\u0435\u043d\u0435\u043d\u0438\u044f<\/h3>\n<p>\u0421\u043e\u0437\u0434\u0430\u0434\u0438\u043c \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u0431\u0443\u0434\u0435\u0442 \u043e\u0431\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u0442\u044c \u0445\u0435\u0448\u0442\u0435\u0433\u0438 \u0438 \u0443\u043f\u043e\u043c\u0438\u043d\u0430\u043d\u0438\u044f \u0432 \u0441\u043e\u0446\u0438\u0430\u043b\u044c\u043d\u044b\u0445 \u0441\u0435\u0442\u044f\u0445.<\/p>\n<pre><code class=\"python\">import re from spacy.tokenizer import Tokenizer from spacy.lang.en import English  nlp = English()  # \u0420\u0435\u0433\u0443\u043b\u044f\u0440\u043d\u043e\u0435 \u0432\u044b\u0440\u0430\u0436\u0435\u043d\u0438\u0435 \u0434\u043b\u044f \u0445\u0435\u0448\u0442\u0435\u0433\u043e\u0432 \u0438 \u0443\u043f\u043e\u043c\u0438\u043d\u0430\u043d\u0438\u0439 hashtag_mention_re = re.compile(r'''^[@#]\\w+''')  def custom_tokenizer(nlp):     return Tokenizer(nlp.vocab, token_match=hashtag_mention_re.match)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"@elonmusk i love cats #cats!\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>@elonmusk #cats<\/code><\/pre>\n<p>\u041e\u0439, \u043a\u0430\u0436\u0435\u0442\u0441\u044f, \u043c\u044b \u0447\u0442\u043e-\u0442\u043e \u0441\u0434\u0435\u043b\u0430\u043b\u0438 \u043d\u0435 \u0442\u0430\u043a. \u0418\u0441\u043f\u0440\u0430\u0432\u0438\u043c \u044d\u0442\u043e, \u0434\u043e\u0431\u0430\u0432\u0438\u0432 \u0441\u0442\u0430\u043d\u0434\u0430\u0440\u0442\u043d\u044b\u0435 \u043f\u0440\u0430\u0432\u0438\u043b\u0430.<\/p>\n<pre><code class=\"python\">def custom_tokenizer(nlp):     return Tokenizer(nlp.vocab, token_match=hashtag_mention_re.match,                      rules=nlp.Defaults.tokenizer_exceptions,                      prefix_search=nlp.tokenizer.prefix_search,                      suffix_search=nlp.tokenizer.suffix_search,                      infix_finditer=nlp.tokenizer.infix_finditer)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"@elonmusk i love cats #cats!\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>@elonmusk i love #cats !<\/code><\/pre>\n<p>\u0422\u0435\u043f\u0435\u0440\u044c \u0432\u0441\u0435 \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u043a\u0430\u043a \u043d\u0430\u0434\u043e!<\/p>\n<h2>\u0421\u043e\u0437\u0434\u0430\u043d\u0438\u0435 \u043a\u043b\u0430\u0441\u0441\u0430 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440\u0430<\/h2>\n<p>\u0415\u0441\u043b\u0438 \u043d\u0443\u0436\u043d\u043e \u0431\u043e\u043b\u0435\u0435 \u0441\u043b\u043e\u0436\u043d\u043e\u0435 \u043f\u043e\u0432\u0435\u0434\u0435\u043d\u0438\u0435, \u043c\u043e\u0436\u043d\u043e \u0441\u043e\u0437\u0434\u0430\u0442\u044c \u0441\u0432\u043e\u0439 \u043a\u043b\u0430\u0441\u0441 \u0442\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0442\u043e\u0440\u0430.<\/p>\n<pre><code class=\"python\">from spacy.tokenizer import Tokenizer from spacy.tokens import Doc from spacy.lang.en import English  class MyTokenizer(Tokenizer):     def __call__(self, text):         words = text.split()         return Doc(self.vocab, words=words)  nlp = English() nlp.tokenizer = MyTokenizer(nlp.vocab)  doc = nlp(\"Custom tokenizer class in action!\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>Custom tokenizer class in action!<\/code><\/pre>\n<h2>\u041e\u0431\u0440\u0430\u0431\u043e\u0442\u043a\u0430 \u0441\u043f\u0435\u0446\u0438\u0430\u043b\u044c\u043d\u044b\u0445 \u0441\u043b\u0443\u0447\u0430\u0435\u0432<\/h2>\n<h4>\u0422\u043e\u043a\u0435\u043d\u0438\u0437\u0430\u0446\u0438\u044f \u0447\u0438\u0441\u0435\u043b \u0438 \u0435\u0434\u0438\u043d\u0438\u0446 \u0438\u0437\u043c\u0435\u0440\u0435\u043d\u0438\u044f<\/h4>\n<p>\u041f\u0440\u0435\u0434\u043f\u043e\u043b\u043e\u0436\u0438\u043c, \u043d\u0443\u0436\u043d\u043e, \u0447\u0442\u043e\u0431\u044b &#171;100kg&#187; \u0431\u044b\u043b\u043e \u043e\u0434\u043d\u0438\u043c \u0442\u043e\u043a\u0435\u043d\u043e\u043c.<\/p>\n<pre><code class=\"python\">import re from spacy.tokenizer import Tokenizer from spacy.lang.en import English  nlp = English()  # \u0420\u0435\u0433\u0443\u043b\u044f\u0440\u043d\u043e\u0435 \u0432\u044b\u0440\u0430\u0436\u0435\u043d\u0438\u0435 \u0434\u043b\u044f \u0447\u0438\u0441\u0435\u043b \u0441 \u0435\u0434\u0438\u043d\u0438\u0446\u0430\u043c\u0438 number_unit_re = re.compile(r'''^\\d+(kg|lb|cm|mm)$''')  def custom_tokenizer(nlp):     return Tokenizer(nlp.vocab, token_match=number_unit_re.match,                      rules=nlp.Defaults.tokenizer_exceptions,                      prefix_search=nlp.tokenizer.prefix_search,                      suffix_search=nlp.tokenizer.suffix_search,                      infix_finditer=nlp.tokenizer.infix_finditer)  nlp.tokenizer = custom_tokenizer(nlp)  doc = nlp(\"He lifted 100kg weight.\") for token in doc:     print(token.text)<\/code><\/pre>\n<p><strong>\u0412\u044b\u0432\u043e\u0434:<\/strong><\/p>\n<pre><code>He lifted 100kg weight .<\/code><\/pre>\n<h4>\u0417\u0430\u043a\u043b\u044e\u0447\u0435\u043d\u0438\u0435<\/h4>\n<p>\u0415\u0441\u043b\u0438 \u0443 \u0432\u0430\u0441 \u0432\u043e\u0437\u043d\u0438\u043a\u043d\u0443\u0442 \u0432\u043e\u043f\u0440\u043e\u0441\u044b \u0438\u043b\u0438 \u0432\u044b \u0437\u0430\u0445\u043e\u0442\u0438\u0442\u0435 \u043f\u043e\u0434\u0435\u043b\u0438\u0442\u044c\u0441\u044f \u0441\u0432\u043e\u0438\u043c\u0438 \u0437\u043d\u0430\u043d\u0438\u044f\u043c\u0438, \u043f\u0438\u0448\u0438\u0442\u0435 \u0432 \u043a\u043e\u043c\u043c\u0435\u043d\u0442\u0430\u0440\u0438\u044f\u0445.<\/p>\n<p>\u0422\u0430\u043a\u0436\u0435, \u043f\u043e\u043b\u044c\u0437\u0443\u044f\u0441\u044c \u0441\u043b\u0443\u0447\u0430\u0435\u043c, \u043d\u0430\u043f\u043e\u043c\u0438\u043d\u0430\u044e, \u0447\u0442\u043e 20 \u043d\u043e\u044f\u0431\u0440\u044f \u0432 \u0440\u0430\u043c\u043a\u0430\u0445 \u043a\u0443\u0440\u0441\u0430 \u043f\u043e NLP \u043f\u0440\u043e\u0439\u0434\u0435\u0442 \u0431\u0435\u0441\u043f\u043b\u0430\u0442\u043d\u044b\u0439 \u043e\u0442\u043a\u0440\u044b\u0442\u044b\u0439 \u0443\u0440\u043e\u043a. \u041d\u0430 \u0443\u0440\u043e\u043a\u0435 \u0443\u0447\u0430\u0441\u0442\u043d\u0438\u043a\u0438 \u0443\u0437\u043d\u0430\u044e\u0442, \u0447\u0442\u043e \u0442\u0430\u043a\u043e\u0435 \u044f\u0437\u044b\u043a\u043e\u0432\u044b\u0435 \u043c\u043e\u0434\u0435\u043b\u0438, \u043a\u0430\u043a \u0438\u0445 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u0434\u043b\u044f \u0440\u0435\u0448\u0435\u043d\u0438\u044f NLP-\u0437\u0430\u0434\u0430\u0447, \u0430 \u0442\u0430\u043a\u0436\u0435 \u0438\u0437\u0443\u0447\u0430\u0442 \u043f\u043e\u0434\u0445\u043e\u0434\u044b \u043f\u043e \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044e \u0431\u043e\u043b\u044c\u0448\u0438\u0445 \u044f\u0437\u044b\u043a\u043e\u0432\u044b\u0445 \u043c\u043e\u0434\u0435\u043b\u0435\u0439, \u0442\u0430\u043a\u0438\u0445 \u043a\u0430\u043a ChatGPT. \u0417\u0430\u043f\u0438\u0441\u0430\u0442\u044c\u0441\u044f \u043d\u0430 \u0443\u0440\u043e\u043a <a href=\"https:\/\/vk.cc\/cEJySc\">\u043c\u043e\u0436\u043d\u043e \u043f\u043e \u0441\u0441\u044b\u043b\u043a\u0435.<\/a><\/p>\n<\/p>\n<\/div>\n<\/div>\n<\/div>\n<p><!----><!----><\/div>\n<p><!----><!----><br \/> \u0441\u0441\u044b\u043b\u043a\u0430 \u043d\u0430 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b \u0441\u0442\u0430\u0442\u044c\u0438 <a href=\"https:\/\/habr.com\/ru\/articles\/855442\/\"> https:\/\/habr.com\/ru\/articles\/855442\/<\/a><br \/><\/br><\/br><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[],"tags":[],"class_list":["post-440580","post","type-post","status-publish","format-standard","hentry"],"_links":{"self":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts\/440580","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=440580"}],"version-history":[{"count":0,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts\/440580\/revisions"}],"wp:attachment":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=440580"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=440580"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=440580"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}