{"id":433467,"date":"2024-09-26T21:00:37","date_gmt":"2024-09-26T21:00:37","guid":{"rendered":"http:\/\/savepearlharbor.com\/?p=433467"},"modified":"-0001-11-30T00:00:00","modified_gmt":"-0001-11-29T21:00:00","slug":"","status":"publish","type":"post","link":"https:\/\/savepearlharbor.com\/?p=433467","title":{"rendered":"<span>\u041e\u0431\u043d\u043e\u0432\u043b\u0435\u043d\u0438\u0435 \u0433\u0435\u043d\u0435\u0440\u0430\u0442\u043e\u0440\u0430 \u0442\u0435\u043a\u0441\u0442\u0430<\/span>"},"content":{"rendered":"<div><!--[--><!--]--><\/div>\n<div id=\"post-content-body\">\n<div>\n<div class=\"article-formatted-body article-formatted-body article-formatted-body_version-2\">\n<div xmlns=\"http:\/\/www.w3.org\/1999\/xhtml\">\n<p>\u041f\u0440\u0438\u0432\u0435\u0442! \u042f \u0440\u0435\u0448\u0438\u043b \u0432\u0435\u0440\u043d\u0443\u0442\u044c\u0441\u044f \u043a \u0441\u043e\u0437\u0434\u0430\u043d\u0438\u044e \u043c\u043e\u0434\u0435\u043b\u0438 \u043d\u0430 \u043e\u0441\u043d\u043e\u0432\u0435 \u0440\u0435\u043a\u0443\u0440\u0440\u0435\u043d\u0442\u043d\u044b\u0445 \u043d\u0435\u0439\u0440\u043e\u043d\u043d\u044b\u0445 \u0441\u0435\u0442\u0435\u0439. \u041e\u043d\u0430 \u043f\u043e\u043a\u0430\u0437\u0430\u043b\u0430\u0441\u044c \u043c\u043d\u0435 \u043e\u0447\u0435\u043d\u044c \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u043e\u0439, \u0432\u0435\u0434\u044c \u043c\u043d\u0435 \u043b\u0438\u0447\u043d\u043e \u043d\u0440\u0430\u0432\u0438\u0442\u0441\u044f \u043d\u0435 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u044c \u043f\u043e \u043d\u0430\u0437\u043d\u0430\u0447\u0435\u043d\u0438\u044e, \u0430 \u0441\u043c\u043e\u0442\u0440\u0435\u0442\u044c, \u043a\u0430\u043a \u043e\u043d\u0430 \u0443\u0447\u0438\u0442\u0441\u044f \u043f\u0440\u0438 \u043e\u043f\u0440\u0435\u0434\u0435\u043b\u0451\u043d\u043d\u044b\u0445 \u043f\u043e\u043a\u0430\u0437\u0430\u0442\u0435\u043b\u044f\u0445.<\/p>\n<p>\u042f \u0440\u0435\u0448\u0438\u043b \u0441\u0438\u043b\u044c\u043d\u043e \u0443\u043f\u0440\u043e\u0441\u0442\u0438\u0442\u044c \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435 \u043a\u043e\u0434\u0430, \u0441\u043e\u0437\u0434\u0430\u0432 \u043c\u043d\u043e\u0436\u0435\u0441\u0442\u0432\u043e \u043d\u0430\u0441\u0442\u0440\u043e\u0435\u043a \u0438 \u0443\u043a\u0430\u0437\u0430\u0432, \u043a\u0430\u043a\u0438\u0435 \u043c\u043e\u0436\u043d\u043e \u0438\u0437\u043c\u0435\u043d\u044f\u0442\u044c \u0438 \u043f\u043e\u0434\u043a\u0440\u0443\u0447\u0438\u0432\u0430\u0442\u044c \u043f\u043e\u0434 \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0435 \u043d\u0443\u0436\u0434\u044b, \u0435\u0441\u043b\u0438 \u0442\u0430\u043a\u0438\u0435 \u043d\u0430\u0439\u0434\u0443\u0442\u0441\u044f. \u042f \u0442\u0430\u043a \u0436\u0435 \u0441\u0434\u0435\u043b\u0430\u043b \u043a\u0440\u0430\u0441\u0438\u0432\u044b\u0439 \u043f\u0440\u043e\u0433\u0440\u0435\u0441\u0441\u0431\u0430\u0440, \u0432\u0435\u0434\u044c \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0430 \u0442\u043e\u043b\u044c\u043a\u043e \u043f\u0440\u0438 \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 \u0442\u0435\u043a\u0441\u0442\u0430 \u043c\u043d\u043e\u0433\u043e \u043f\u0438\u0448\u0435\u0442<\/p>\n<p>\u0414\u043b\u044f \u043d\u0430\u0447\u0430\u043b\u0430 \u044f \u0440\u0435\u0448\u0438\u043b \u043e\u0431\u043d\u043e\u0432\u0438\u0442\u044c \u0441\u0430\u043c\u0438 \u0441\u043b\u043e\u0438. \u042f \u043f\u043e\u043d\u044f\u043b, \u0447\u0442\u043e \u0441\u043e\u0437\u0434\u0430\u043d\u0438\u0435 \u043b\u0438\u0448\u043d\u0438\u0445 \u0441\u043b\u043e\u0451\u0432 \u0441\u043e \u0441\u043f\u0435\u0446 \u0441\u0432\u043e\u0439\u0441\u0442\u0432\u0430\u043c\u0438 \u0432 \u0446\u0435\u043b\u043e\u043c \u043d\u0435 \u043e\u0447\u0435\u043d\u044c \u043d\u0443\u0436\u043d\u044b, \u0432\u0435\u0434\u044c \u043d\u0430\u0448\u0430 \u0437\u0430\u0434\u0430\u0447\u0430 \u0441\u043e\u0437\u0434\u0430\u0442\u044c \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u0438, \u043a\u043e\u0442\u043e\u0440\u0430\u044f \u0431\u0443\u0434\u0435\u0442 \u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u043d\u0430 \u043e\u0431\u044b\u0447\u043d\u043e\u043c \u043a\u043e\u043c\u043f\u044c\u044e\u0442\u0435\u0440\u0435, \u0430 \u043d\u0430\u043f\u0440\u0438\u043c\u0435\u0440 \u0441\u043b\u043e\u0439 \u0432\u043d\u0438\u043c\u0430\u043d\u0438\u044f \u0441\u0438\u043b\u044c\u043d\u043e \u0443\u0432\u0435\u043b\u0438\u0447\u0438\u0432\u0430\u0435\u0442 \u0432\u0440\u0435\u043c\u044f \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f, \u043f\u0443\u0441\u0442\u044c \u0438 \u0434\u0435\u043b\u0430\u0435\u0442 \u043c\u043e\u0434\u0435\u043b\u044c \u0442\u043e\u0447\u043d\u0435\u0439.<\/p>\n<p>\u0412\u043e\u0442 \u043a\u0430\u043a \u0432\u044b\u0433\u043b\u044f\u0434\u044f\u0442 \u0438\u043c\u043f\u043e\u0440\u0442 \u0432\u0441\u0435\u0445 \u0441\u043e\u0441\u0442\u0430\u0432\u043b\u044f\u044e\u0449\u0438\u0445 \u0438 \u0441\u043e\u0437\u0434\u0430\u043d\u0438\u0435 \u0441\u043b\u043e\u0451\u0432:<\/p>\n<pre><code class=\"python\"># \u0424\u0443\u043d\u043a\u0446\u0438\u044f \u0434\u043b\u044f \u0441\u043e\u0437\u0434\u0430\u043d\u0438\u044f \u043c\u043e\u0434\u0435\u043b\u0438 def create_model(total_words, max_sequence_len):     model = Sequential()     model.add(Embedding(total_words, 100, input_length=max_sequence_len-1)) # \u0427\u0438\u0441\u043b\u043e \u043d\u0435\u0439\u0440\u043e\u043d\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u043c\u0435\u043d\u044f\u0442\u044c     model.add(LSTM(100)) # \u0427\u0438\u0441\u043b\u043e \u043d\u0435\u0439\u0440\u043e\u043d\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u043c\u0435\u043d\u044f\u0442\u044c     for _ in range(2): # \u0427\u0438\u0441\u043b\u043e \u043d\u0435\u0439\u0440\u043e\u043d\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u043c\u0435\u043d\u044f\u0442\u044c         model.add(Dense(100)) # \u0427\u0438\u0441\u043b\u043e \u043d\u0435\u0439\u0440\u043e\u043d\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u043c\u0435\u043d\u044f\u0442\u044c     model.add(Dense(total_words, activation='softmax'))     model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])     return model<\/code><\/pre>\n<p>\u041e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u043d\u0435 \u0441\u0438\u043b\u044c\u043d\u043e \u0438\u0437\u043c\u0435\u043d\u0438\u043b\u043e\u0441\u044c, \u0440\u0430\u0437\u0432\u0435 \u0447\u0442\u043e \u044f \u0438\u0437\u043c\u0435\u043d\u0438\u043b \u0442\u0443 \u0447\u0430\u0441\u0442\u044c, \u0433\u0434\u0435 \u0437\u0430\u0434\u0430\u0451\u0442\u0441\u044f \u0434\u0430\u0442\u0430\u0441\u0435\u0442 \u0441 \u0442\u0435\u043a\u0441\u0442\u043e\u043c. \u0418\u0437 \u043f\u0440\u0435\u0434\u044b\u0434\u0443\u0449\u0435\u0439 \u0441\u0442\u0430\u0442\u044c\u0438 \u044f \u043f\u043e\u043d\u044f\u043b, \u0447\u0442\u043e \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u0438 \u043c\u043e\u0433\u0443\u0442 \u043d\u0435 \u043f\u043e\u043d\u0438\u043c\u0430\u0442\u044c, \u043a\u0430\u043a\u043e\u0439 \u0438\u043c\u0435\u043d\u043d\u043e \u0442\u0435\u043a\u0441\u0442 \u043d\u0443\u0436\u0435\u043d. \u042f \u0441\u0440\u0430\u0437\u0443 \u0433\u043e\u0432\u043e\u0440\u044e, <strong>\u043e\u0431\u0443\u0447\u0430\u0439\u0442\u0435 \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0430 \u043b\u044e\u0431\u043e\u043c \u0442\u0435\u043a\u0441\u0442\u0435!<\/strong> \u041f\u0440\u043e\u0441\u0442\u043e \u0437\u0430\u0434\u0430\u0439\u0442\u0435 \u0437\u0430\u043f\u0440\u043e\u0441 \u0432 \u0433\u0443\u0433\u043b, \u043d\u0430\u043f\u0440\u0438\u043c\u0435\u0440 &#171;\u0427\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442 \u043f\u0440\u043e\u043a\u0440\u0430\u0441\u0442\u0438\u043d\u0438\u0440\u043e\u0432\u0430\u0442\u044c&#187; \u0438 \u043e\u0442\u0432\u0435\u0442 \u0437\u0430\u043f\u0438\u0448\u0438\u0442\u0435 \u0432 \u0442\u0435\u043a\u0441\u0442\u043e\u0432\u044b\u0439 \u0444\u0430\u0439\u043b. \u0413\u043b\u0430\u0432\u043d\u043e\u0435, \u0447\u0442\u043e\u0431\u044b \u0442\u0435\u043a\u0441\u0442 \u0431\u044b\u043b \u0431\u043e\u043b\u044c\u0448\u0435 200 \u0441\u0438\u043c\u0432\u043e\u043b\u043e\u0432, \u0435\u0433\u043e \u043c\u0430\u043a\u0441\u0438\u043c\u0430\u043b\u044c\u043d\u044b\u0439 \u0440\u0430\u0437\u043c\u0435\u0440 \u0432 \u0442\u0435\u043e\u0440\u0438\u0438 \u043d\u0435 \u043e\u0433\u0440\u0430\u043d\u0438\u0447\u0435\u043d. \u0412\u043e\u0442 \u043a\u043e\u0434 \u0444\u0443\u043d\u043a\u0446\u0438\u0438 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f:<\/p>\n<pre><code class=\"python\"># \u0424\u0443\u043d\u043a\u0446\u0438\u044f \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u0438 def train_model(TextData, max_sequence_len):     tokenizer = Tokenizer(char_level=True)     tokenizer.fit_on_texts(TextData)     total_chars = len(tokenizer.word_index) + 1      input_sequences = []     for i in range(0, len(TextData) - max_sequence_len, 1):         sequence = TextData[i:i + max_sequence_len]         input_sequences.append(sequence)      input_sequences = tokenizer.texts_to_sequences(input_sequences)     input_sequences = np.array(input_sequences)     xs, labels = input_sequences[:, :-1], input_sequences[:, -1]     ys = tf.keras.utils.to_categorical(labels, num_classes=total_chars)      model = create_model(total_chars, max_sequence_len)     epochs = 0     while True:         history = model.fit(xs, ys, epochs=1, verbose=1)         accuracy = history.history['accuracy'][0]         if accuracy &gt; 0.7: # \u041d\u0430\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0435\u043c\u044b\u0439 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440             break         epochs += 1      model.save('\u041f\u0443\u0442\u044c_\u043a_\u0442\u0435\u043a\u0441\u0442\u043e\u0432\u043e\u043c\u0443_\u0444\u0430\u0439\u043b\u0443')     return model, tokenizer<\/code><\/pre>\n<p>\u0417\u0430\u043c\u0435\u0442\u044c\u0442\u0435, \u0447\u0442\u043e \u043c\u043e\u0434\u0435\u043b\u044c \u043e\u0431\u0443\u0447\u0430\u0435\u0442\u0441\u044f \u0434\u043e \u0442\u0435\u0445 \u043f\u043e\u0440, \u043f\u043e\u043a\u0430 \u043f\u043e\u043a\u0430\u0437\u0430\u0442\u0435\u043b\u044c \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u0438 \u043d\u0435 \u043f\u0440\u0435\u0432\u044b\u0441\u0438\u0442 0,7.  \u041a\u043e\u043d\u0435\u0447\u043d\u043e \u0436\u0435 \u0432\u044b \u043c\u043e\u0436\u0435\u0442\u0435 \u0438\u0437\u043c\u0435\u043d\u0438\u0442\u044c \u044d\u0442\u043e\u0442 \u043f\u043e\u043a\u0430\u0437\u0430\u0442\u0435\u043b\u044c, \u0435\u0441\u043b\u0438 \u043d\u0443\u0436\u043d\u043e.<\/p>\n<p>\u0413\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u044f \u0442\u0435\u043a\u0441\u0442\u0430 \u043f\u043e\u043b\u0443\u0447\u0438\u043b\u0430 \u0432\u0430\u0436\u043d\u043e\u0435 \u043e\u0431\u043d\u043e\u0432\u043b\u0435\u043d\u0438\u0435. \u041e\u043d\u0430 \u043f\u043e\u043b\u0443\u0447\u0438\u043b\u0430 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435 \u0442\u0435\u043c\u043f\u0435\u0440\u0430\u0442\u0443\u0440\u044b, \u0447\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442 \u043d\u0430\u0441\u0442\u0440\u043e\u0439\u043a\u0443 \u0440\u0430\u0437\u043d\u043e\u043e\u0431\u0440\u0430\u0437\u0438\u044f \u0442\u0435\u043a\u0441\u0442\u0430. \u0412\u043e\u0442 \u043a\u043e\u0434:<\/p>\n<pre><code class=\"python\"># \u0424\u0443\u043d\u043a\u0446\u0438\u044f \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 \u0442\u0435\u043a\u0441\u0442\u0430  def generate_text(seed_text, next_chars, model, max_sequence_len, tokenizer, temperature=0.7): # \u041d\u0430\u0441\u0442\u0440\u043e\u0439\u0442\u0435 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440 \u0442\u0435\u043c\u043f\u0435\u0440\u0430\u0442\u0443\u0440\u044b.     generated_text = seed_text     for _ in tqdm(range(next_chars), desc=\"Generating text\"):         token_list = tokenizer.texts_to_sequences([seed_text])[0]         token_list = pad_sequences([token_list], maxlen=max_sequence_len-1, padding='pre')          predicted_probs = model.predict(token_list, verbose=0)[0]         predicted_probs = np.log(predicted_probs) \/ temperature         exp_preds = np.exp(predicted_probs)         predicted_probs = exp_preds \/ np.sum(exp_preds)         predicted = np.random.choice(len(predicted_probs), p=predicted_probs)         output_char = tokenizer.index_word.get(predicted, \"\")         seed_text += output_char         generated_text += output_char      return generated_text<\/code><\/pre>\n<p>\u0418\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u0441\u0438\u043b\u044c\u043d\u043e \u043d\u0435 \u0438\u0437\u043c\u0435\u043d\u0438\u043b\u043e\u0441\u044c. \u0420\u0430\u0437\u0432\u0435 \u0447\u0442\u043e \u0431\u044b\u043b\u0438 \u043f\u043e\u0434\u043f\u0440\u0430\u0432\u043b\u0435\u043d\u044b \u043d\u0435\u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u043d\u044e\u0430\u043d\u0441\u044b, \u043d\u043e \u044d\u0442\u043e \u043c\u0435\u043b\u043e\u0447\u0438. \u0412\u043e\u0442 \u043a\u043e\u0434:<\/p>\n<pre><code class=\"python\"># \u0425\u043e\u0447\u0435\u0442 \u043b\u0438 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? train_new_model = input(\"\u0425\u043e\u0442\u0438\u0442\u0435 \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? (\u0434\u0430\/\u043d\u0435\u0442)): \") if train_new_model.lower() == \"\u0434\u0430\":     # \u0417\u0430\u0433\u0440\u0443\u0436\u0430\u0435\u043c \u0434\u0430\u0442\u0430\u0441\u0435\u0442     with open('\u041f\u0443\u0442\u044c_\u043a_\u0434\u0430\u0442\u0430\u0441\u0435\u0442\u0443', 'r') as file:         TextData = file.read().replace('\\n', ' ')     max_sequence_len = 100 # \u041d\u0430\u0441\u0442\u0440\u043e\u0439\u0442\u0435 (\u043e\u043d \u0434\u043e\u043b\u0436\u0435\u043d \u0431\u044b\u0442\u044c \u0442\u0430\u043a\u0438\u043c \u0436\u0435, \u043a\u0430\u043a \u0441\u043d\u0438\u0437\u0443)     model, tokenizer = train_model(TextData, max_sequence_len) else:     # \u041e\u0431\u0443\u0447\u043d\u043d\u0430\u044f \u043c\u043e\u0434\u0435\u043b\u044c     model = load_model('\u041f\u0443\u0442\u044c_\u043a_\u0444\u0430\u0439\u043b\u0443_\u043c\u043e\u0434\u0435\u043b\u0438\/text_generation_model.h5')     tokenizer = Tokenizer(char_level=True)     with open('\u041f\u0443\u0442\u044c_\u043a_\u0434\u0430\u0442\u0430\u0441\u0435\u0442\u0443', 'r') as file:         TextData = file.read().replace('\\n', ' ')     tokenizer.fit_on_texts(TextData)     max_sequence_len = 100 # \u041d\u0430\u0441\u0442\u0440\u043e\u0439\u0442\u0435 (\u043e\u043d \u0434\u043e\u043b\u0436\u0435\u043d \u0431\u044b\u0442\u044c \u0442\u0430\u043a\u0438\u043c \u0436\u0435, \u043a\u0430\u043a \u0441\u0432\u0435\u0440\u0445\u0443)  # \u0413\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u044f \u0438 \u0432\u044b\u0432\u043e\u0434 \u0442\u0435\u043a\u0441\u0442\u0430 while True:     seed_text = input(\"\u0412\u044b: \")     next_chars = 200 # \u041d\u0430\u0441\u0442\u0440\u043e\u0439\u0442\u0435 \u0434\u043b\u0438\u043d\u0443 \u0433\u0435\u043d\u0435\u0440\u0438\u0440\u0443\u0435\u043c\u043e\u0433\u043e \u0442\u0435\u043a\u0441\u0442\u0430     generated_text = generate_text(seed_text, next_chars, model, max_sequence_len, tokenizer)     print(\"\u0418\u0418: \", generated_text)<\/code><\/pre>\n<p>\u0412\u0441\u0451! \u041c\u043e\u0434\u0435\u043b\u044c \u0441\u043e\u0437\u0434\u0430\u043d\u0430. \u0422\u0435\u043f\u0435\u0440\u044c \u0443 \u0432\u0430\u0441 \u0435\u0441\u0442\u044c \u043f\u0440\u043e\u0431\u043b\u0435\u043c\u0430 \u0434\u043b\u044f \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f \u0438 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u044f \u0433\u0435\u043d\u0435\u0440\u0430\u0442\u043e\u0440\u043e\u0432 \u0442\u0435\u043a\u0441\u0442\u0430. \u041d\u0430 \u0432\u0441\u044f\u043a\u0438\u0439 \u0441\u043b\u0443\u0447\u0430\u0439 \u0432\u044b\u0441\u044b\u043b\u0430\u044e \u0432\u0430\u043c \u043f\u043e\u043b\u043d\u044b\u0439 \u043a\u043e\u0434, \u0442\u0430\u043a\u043e\u0439, \u043a\u0430\u043a \u0443 \u043c\u0435\u043d\u044f \u0432 \u0413\u0443\u0433\u043b \u043a\u043e\u043b\u043b\u0430\u0431\u0435:<\/p>\n<pre><code class=\"python\">import tensorflow as tf from tensorflow.keras.models import Sequential, load_model from tensorflow.keras.layers import Embedding, LSTM, Dense from tensorflow.keras.preprocessing.text import Tokenizer from tensorflow.keras.preprocessing.sequence import pad_sequences import numpy as np from tqdm import tqdm  # \u0421\u043e\u0437\u0434\u0430\u0451\u043c \u043c\u043e\u0434\u0435\u043b\u044c def create_model(total_words, max_sequence_len):     model = Sequential()     model.add(Embedding(total_words, 700, input_length=max_sequence_len-1))     model.add(LSTM(700))     for _ in range(2):         model.add(Dense(700))     model.add(Dense(total_words, activation='softmax'))     model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])     return model  # \u041e\u0431\u0443\u0447\u0430\u0435\u043c \u043c\u043e\u0434\u0435\u043b\u044c  def train_model(TextData, max_sequence_len):     tokenizer = Tokenizer(char_level=True)     tokenizer.fit_on_texts(TextData)     total_chars = len(tokenizer.word_index) + 1      input_sequences = []     for i in range(0, len(TextData) - max_sequence_len, 1):         sequence = TextData[i:i + max_sequence_len]         input_sequences.append(sequence)      input_sequences = tokenizer.texts_to_sequences(input_sequences)     input_sequences = np.array(input_sequences)     xs, labels = input_sequences[:, :-1], input_sequences[:, -1]     ys = tf.keras.utils.to_categorical(labels, num_classes=total_chars)      model = create_model(total_chars, max_sequence_len)     epochs = 0     while True:         history = model.fit(xs, ys, epochs=1, verbose=1)         accuracy = history.history['accuracy'][0]         if accuracy &gt; 0.7:             break         epochs += 1      model.save('\/content\/drive\/MyDrive\/Colab Notebooks\/text_generation_model.h5')     return model, tokenizer  # \u0413\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u044f \u0442\u0435\u043a\u0441\u0442\u0430 def generate_text(seed_text, next_chars, model, max_sequence_len, tokenizer, temperature=0.7):     generated_text = seed_text     for _ in tqdm(range(next_chars), desc=\"Generating text\"):         token_list = tokenizer.texts_to_sequences([seed_text])[0]         token_list = pad_sequences([token_list], maxlen=max_sequence_len-1, padding='pre')          predicted_probs = model.predict(token_list, verbose=0)[0]         predicted_probs = np.log(predicted_probs) \/ temperature         exp_preds = np.exp(predicted_probs)         predicted_probs = exp_preds \/ np.sum(exp_preds)         predicted = np.random.choice(len(predicted_probs), p=predicted_probs)         output_char = tokenizer.index_word.get(predicted, \"\")         seed_text += output_char         generated_text += output_char      return generated_text  # \u0425\u043e\u0447\u0435\u0442 \u043b\u0438 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? train_new_model = input(\"\u0425\u043e\u0442\u0438\u0442\u0435 \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? (\u0434\u0430\/\u043d\u0435\u0442)): \") if train_new_model.lower() == \"\u0434\u0430\":     # \u0437\u0430\u0433\u0440\u0443\u0436\u0430\u0435\u043c \u0434\u0430\u0442\u0430\u0441\u0435\u0442     with open('\/content\/drive\/MyDrive\/Colab Notebooks\/TextData.txt', 'r') as file:         TextData = file.read().replace('\\n', ' ')     max_sequence_len = 200     model, tokenizer = train_model(TextData, max_sequence_len) else:     # \u0437\u0430\u0433\u0440\u0443\u0436\u0430\u0435\u043c \u043c\u043e\u0434\u0435\u043b\u044c     model = load_model('\/content\/drive\/MyDrive\/Colab Notebooks\/text_generation_model.h5')     tokenizer = Tokenizer(char_level=True)     with open('\/content\/drive\/MyDrive\/Colab Notebooks\/TextData.txt', 'r') as file:         TextData = file.read().replace('\\n', ' ')     tokenizer.fit_on_texts(TextData)     max_sequence_len = 200  # \u0418\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u043c \u043c\u043e\u0434\u0435\u043b\u044c while True:     seed_text = input(\"\u0412\u044b: \")     next_chars = 200     generated_text = generate_text(seed_text, next_chars, model, max_sequence_len, tokenizer)     print(\"\u0418\u0418: \", generated_text)<\/code><\/pre>\n<p>\u041f\u0440\u0438\u043c\u0435\u0440 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u044f:<\/p>\n<pre><code>\u0425\u043e\u0442\u0438\u0442\u0435 \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? (\u0434\u0430\/\u043d\u0435\u0442): \u0434\u0430 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 13s 6ms\/step - accuracy: 0.2180 - loss: 2.8713 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 7ms\/step - accuracy: 0.3566 - loss: 2.2326 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 12s 7ms\/step - accuracy: 0.4425 - loss: 1.9001 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 7ms\/step - accuracy: 0.5110 - loss: 1.6469 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 12s 7ms\/step - accuracy: 0.5526 - loss: 1.4746 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 12s 7ms\/step - accuracy: 0.6003 - loss: 1.3076 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 12s 7ms\/step - accuracy: 0.6386 - loss: 1.1710 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 7ms\/step - accuracy: 0.6808 - loss: 1.0347 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 6ms\/step - accuracy: 0.7113 - loss: 0.9224 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 7ms\/step - accuracy: 0.7511 - loss: 0.7948 WARNING:absl:You are saving your model as an HDF5 file via `model.save()` or `keras.saving.save_model(model)`. This file format is considered legacy. We recommend using instead the native Keras format, e.g. `model.save('my_model.keras')` or `keras.saving.save_model(model, 'my_model.keras')`.  Generating text: 100%|\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588| 200\/200 [00:11&lt;00:00, 16.95it\/s] \u0418\u0418:  \u041f\u0440\u0438\u0432\u0435\u0442! \u0441\u0438\u043d\u0438\u0439 \u043a\u0440\u0430\u0441\u0442\u044b.  \u043a\u0430\u043a \u0440\u0435\u0448\u0435\u043d\u0438\u0439 \u043e\u0441\u0442\u0430\u0432\u0438\u043b\u043e \u043a\u043b\u044e\u0447\u0435\u0432\u044b \u0438 \u0440\u0435\u043a\u043e\u043c\u0435\u043d\u0434\u0430\u0446\u0438\u0438) \u0438 \u043e\u0431\u044a\u0435\u0434\u0438\u043d\u0451\u043d\u043d\u0430\u044f \u0441\u0438\u043b\u044c\u043d\u044b\u0435 \u044d\u043c\u043e\u0446\u0438\u0438 \u043e\u0432\u0438\u0449\u0435\u043d\u0438\u0435 \u043e\u0442\u0432\u0435\u0442\u043e\u043c \u043e\u0442\u0432\u0435\u0442\u0438\u0442\u044c, \u0447\u0442\u043e \u0432\u044b\u0441\u043e\u043a\u0438\u0437 \u0430\u0442\u0430\u043a\u0438 \u0438\u0437 \u043a\u043b\u044e\u0447\u0435\u0432\u044b \u0433\u043e\u0432\u043e\u0440\u043c. \u043f\u043e\u043d\u0435\u043b\u044c\u043d\u043e \u0437\u0430\u0440\u0430\u043d\u0438\u0435\u043c \u043f\u0440\u043e\u0438\u0437\u043e\u0439\u0434\u0435\u0442 \u0441 \u0438\u0445 \u043a\u043b\u044e\u0447\u0435\u0432\u044b\u0445 \u043d\u0430 \u0412\u044b: ... ...  \u0425\u043e\u0442\u0438\u0442\u0435 \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? (\u0434\u0430\/\u043d\u0435\u0442): \u043d\u0435\u0442 WARNING:absl:Compiled the loaded model, but the compiled metrics have yet to be built. `model.compile_metrics` will be empty until you train or evaluate the model. \u0412\u044b: \u041f\u0440\u0438\u0432\u0435\u0442! Generating text: 100%|\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588| 200\/200 [00:15&lt;00:00, 13.10it\/s] \u0418\u0418:  \u041f\u0440\u0438\u0432\u0435\u0442! \u043a\u0430\u043a \u0440\u0430\u0431\u043e\u0442\u044b \u0441\u0438\u0441\u0442\u0435\u043c\u044b \u0431\u043e\u043b\u0435\u0437\u043d\u043e\u0439 \u0438\u043d\u0444\u043e\u0440\u043c\u0430\u0442\u0438\u0432\u043d\u043e\u0439 \u043e\u0431\u043c\u0435\u043d\u0435.  \u043f\u043e \u043c\u043d\u043e\u0433\u0438\u0435 \u043d\u0430\u043f\u043e\u0447\u0442\u0438\u0442\u044c \u0430\u0442\u0430\u043a\u0438 \u043d\u0430 \u043f\u0440\u0435\u0434\u0441\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442 \u0430\u0431\u043e\u0440\u0442\u044b \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u0435\u0439 \u043e\u0431\u043c\u0435\u043d\u0430 \u0438\u043c\u0435\u044e\u0442 \u0434\u043b\u0438\u043d\u0443 \u0432\u043e\u043b\u043d\u044b \u0440\u0430\u0437\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u0435\u0442 \u0432 \u044d\u0442\u043e\u043c \u043a\u0438\u0445 \u043c\u043e\u043c\u0435\u043d\u0442\u0443.  \u043f\u0440\u0438\u0442\u0432\u043e\u0440\u044f\u044e\u0442\u0441\u044f \u043f\u043e\u0434 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e \u0412\u044b: \u041f\u0440\u0438\u0432\u0435\u0442! Generating text: 100%|\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588\u2588| 200\/200 [00:11&lt;00:00, 17.00it\/s] \u0418\u0418:  \u041f\u0440\u0438\u0432\u0435\u0442! \u0440\u0438\u0442\u0435\u043b\u044e\u043d\u044b\u0439 \u0446\u0435\u043d\u0442\u0440: \u00ab\u0433\u0440\u0443\u043f\u043f\u0430 chatgpt \u0444\u0430\u0439\u043b\u044b \u2014 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u0435\u0439, \u0441\u043a\u0440\u044b\u0442\u044b\u0435 \u043b\u0438\u0446\u044b \u0438 \u0440\u0430\u0437\u0432\u0438\u0442\u0438\u0435 \u0434\u043e \u0434\u0432\u0438\u0436\u0435\u043d\u0438\u044f, \u0444\u0438\u043b\u0438\u0448\u0438\u0431\u044b, \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u043c\u044b\u0435 \u043e\u043d \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u044c \u0442\u043e\u043c, \u0447\u0442\u043e\u0431\u044b \u0438\u0437\u043e\u0431\u0440\u0430\u0436\u0435\u043d\u0438\u044f \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u044c \u043c\u043e\u0433\u0443\u0442 \u043c\u0430\u0442\u044c\u0441\u0438\u0442\u044c \u0438 \u043f\u043e\u0437\u0432\u043e\u043b\u0438\u043b\u043e \u0441 ...<\/code><\/pre>\n<p>\u0420\u0435\u043a\u043e\u043c\u0435\u043d\u0434\u0443\u044e \u043e\u0431\u0443\u0447\u0430\u0442\u044c \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0443 \u0432 \u0433\u0443\u0433\u043b \u043a\u043e\u043b\u043b\u0430\u0431. \u0422\u0430\u043c \u044d\u0442\u043e \u043f\u0440\u043e\u0438\u0441\u0445\u043e\u0434\u0438\u0442 \u0431\u044b\u0441\u0442\u0440\u043e \u0438 \u0440\u0435\u0437\u0443\u043b\u044c\u0442\u0430\u0442 \u043c\u043e\u0436\u0435\u0442 \u0431\u044b\u0442\u044c \u043b\u0443\u0447\u0448\u0435 \u043c\u043e\u0435\u0433\u043e.<\/p>\n<p>\u042f \u0440\u0443\u043a\u043e\u0432\u043e\u0434\u0441\u0442\u0432\u043e\u0432\u0430\u043b\u0441\u044f \u0438\u043d\u0441\u0442\u0440\u0443\u043a\u0446\u0438\u044f\u043c\u0438 TensorFlow, ChatGPT \u043c\u043d\u0435 \u043f\u043e\u043c\u043e\u0433\u0430\u043b \u0438\u0441\u043f\u0440\u0430\u0432\u043b\u044f\u0442\u044c \u043e\u0448\u0438\u0431\u043a\u0438, \u0447\u0442\u043e\u0431\u044b \u044f \u043c\u043e\u0433 \u0441\u043e\u0437\u0434\u0430\u0442\u044c \u044d\u0442\u0443 \u043c\u043e\u0434\u0435\u043b\u044c.<\/p>\n<p>\u042f \u0431\u043b\u0430\u0433\u043e\u0434\u0430\u0440\u0435\u043d \u0432\u0441\u0435\u043c \u043b\u044e\u0434\u044f\u043c, \u0434\u0430\u0436\u0435 \u0442\u0435\u043c, \u043a\u0442\u043e \u043f\u0440\u043e\u0441\u0442\u043e \u0437\u0430\u0448\u0451\u043b \u0441\u044e\u0434\u0430 \u0440\u0430\u0434\u0438 \u043a\u043e\u043f\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f \u043a\u043e\u0434\u0430. \u041d\u0430\u0434\u0435\u0435\u043c\u0441\u044f \u0432\u0430\u043c \u043f\u043e\u043d\u0440\u0430\u0432\u0438\u0442\u0441\u044f \u044d\u0442\u0430 \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0430 \u0438 \u0434\u0440\u0443\u0433\u0438\u0435 \u043b\u044e\u0434\u0438 \u043d\u0430\u0439\u0434\u0443\u0442 \u0435\u0439 \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u043e\u0435 \u043f\u0440\u0438\u043c\u0435\u043d\u0435\u043d\u0438\u0435, \u043b\u0438\u0431\u043e \u043c\u043e\u0434\u0435\u0440\u043d\u0438\u0437\u0438\u0440\u0443\u044e\u0442 \u0434\u043e \u043f\u043e\u043b\u043d\u043e\u0446\u0435\u043d\u043d\u043e\u0433\u043e \u0447\u0430\u0442-\u0431\u043e\u0442\u0430. <\/p>\n<p>\u0412\u0441\u0435\u043c \u0443\u0434\u0430\u0447\u0438 \u0438 \u0434\u043e \u043d\u043e\u0432\u044b\u0445 \u0441\u0442\u0430\u0442\u0435\u0439 \u0441 \u043a\u043e\u0434\u043e\u043c!<\/p>\n<\/p>\n<\/div>\n<\/div>\n<\/div>\n<p><!----><!----><\/div>\n<p><!----><\/p>\n<div class=\"tm-article-poll-container\"><!--[--><\/p>\n<div class=\"tm-article-poll tm-article-poll_variant-bordered\">\n<div class=\"tm-notice tm-notice_positive tm-article-poll__notice\"><!----><\/p>\n<div class=\"tm-notice__inner\"><!----><\/p>\n<div class=\"tm-notice__content\" data-test-id=\"notice-content\"><!--[--><span>\u0422\u043e\u043b\u044c\u043a\u043e \u0437\u0430\u0440\u0435\u0433\u0438\u0441\u0442\u0440\u0438\u0440\u043e\u0432\u0430\u043d\u043d\u044b\u0435 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u0438 \u043c\u043e\u0433\u0443\u0442 \u0443\u0447\u0430\u0441\u0442\u0432\u043e\u0432\u0430\u0442\u044c \u0432 \u043e\u043f\u0440\u043e\u0441\u0435. <a rel=\"nofollow\" href=\"\/kek\/v1\/auth\/habrahabr\/?back=\/ru\/articles\/846362\/&#038;hl=ru\">\u0412\u043e\u0439\u0434\u0438\u0442\u0435<\/a>, \u043f\u043e\u0436\u0430\u043b\u0443\u0439\u0441\u0442\u0430.<\/span><!--]--><\/div>\n<\/div>\n<\/div>\n<p><!--[--><\/p>\n<div class=\"tm-article-poll__header\">\u0411\u0443\u0434\u0435\u0442\u0435 \u043b\u0438 \u0432\u044b \u0440\u0430\u0441\u0441\u043a\u0430\u0437\u0430\u0442\u044c \u043e\u0431 \u044d\u0442\u043e\u043c \u0434\u0440\u0443\u0437\u044c\u044f\u043c?<\/div>\n<div class=\"tm-article-poll__answers\"><!--[--><\/p>\n<div class=\"tm-article-poll__answer\">\n<div class=\"tm-article-poll__answer-data\"><span class=\"tm-article-poll__answer-percent\">0% <\/span><span class=\"tm-article-poll__answer-label\">\u0414\u0430<\/span><span class=\"tm-article-poll__answer-votes\">0<\/span><\/div>\n<div class=\"tm-article-poll__answer-bar\">\n<div class=\"tm-article-poll__answer-progress\" style=\"width: 0%\"><\/div>\n<\/div>\n<\/div>\n<div class=\"tm-article-poll__answer\">\n<div class=\"tm-article-poll__answer-data\"><span class=\"tm-article-poll__answer-percent tm-article-poll__answer-percent_winning\">100% <\/span><span class=\"tm-article-poll__answer-label\">\u041d\u0435\u0442<\/span><span class=\"tm-article-poll__answer-votes\">4<\/span><\/div>\n<div class=\"tm-article-poll__answer-bar\">\n<div class=\"tm-article-poll__answer-progress tm-article-poll__answer-progress_winning\" style=\"width: 100%\"><\/div>\n<\/div>\n<\/div>\n<div class=\"tm-article-poll__answer\">\n<div class=\"tm-article-poll__answer-data\"><span class=\"tm-article-poll__answer-percent\">0% <\/span><span class=\"tm-article-poll__answer-label\">\u0411\u0443\u0434\u0443 \u043e\u0431\u0443\u0447\u0430\u0442\u044c \u043c\u043e\u0434\u0435\u043b\u044c \u0438 \u0441\u043a\u0438\u0434\u044b\u0432\u0430\u0442\u044c \u0444\u0430\u0439\u043b model.h5 \u0434\u0440\u0443\u0437\u044c\u044f\u043c, \u0447\u0442\u043e\u0431\u044b \u0443\u0434\u0438\u0432\u043b\u044f\u0442\u044c \u0438\u0445.<\/span><span class=\"tm-article-poll__answer-votes\">0<\/span><\/div>\n<div class=\"tm-article-poll__answer-bar\">\n<div class=\"tm-article-poll__answer-progress\" style=\"width: 0%\"><\/div>\n<\/div>\n<\/div>\n<p><!--]--><\/div>\n<div class=\"tm-article-poll__stats\"> \u041f\u0440\u043e\u0433\u043e\u043b\u043e\u0441\u043e\u0432\u0430\u043b\u0438 4 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044f.    \u0412\u043e\u0437\u0434\u0435\u0440\u0436\u0430\u043b\u0441\u044f 1 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c. <\/div>\n<p><!--]--><\/div>\n<div class=\"tm-article-poll tm-article-poll_variant-bordered\">\n<div class=\"tm-notice tm-notice_positive tm-article-poll__notice\"><!----><\/p>\n<div class=\"tm-notice__inner\"><!----><\/p>\n<div class=\"tm-notice__content\" data-test-id=\"notice-content\"><!--[--><span>\u0422\u043e\u043b\u044c\u043a\u043e \u0437\u0430\u0440\u0435\u0433\u0438\u0441\u0442\u0440\u0438\u0440\u043e\u0432\u0430\u043d\u043d\u044b\u0435 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u0438 \u043c\u043e\u0433\u0443\u0442 \u0443\u0447\u0430\u0441\u0442\u0432\u043e\u0432\u0430\u0442\u044c \u0432 \u043e\u043f\u0440\u043e\u0441\u0435. <a rel=\"nofollow\" href=\"\/kek\/v1\/auth\/habrahabr\/?back=\/ru\/articles\/846362\/&#038;hl=ru\">\u0412\u043e\u0439\u0434\u0438\u0442\u0435<\/a>, \u043f\u043e\u0436\u0430\u043b\u0443\u0439\u0441\u0442\u0430.<\/span><!--]--><\/div>\n<\/div>\n<\/div>\n<p><!--[--><\/p>\n<div class=\"tm-article-poll__header\">\u0411\u0443\u0434\u0435\u0442\u0435 \u043b\u0438 \u0432\u044b \u0443\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0442\u044c \u0441\u043e\u0440\u0435\u0432\u043d\u043e\u0432\u0430\u043d\u0438\u044f \u0441 \u043c\u043e\u0434\u0435\u043b\u044c\u044e?<\/div>\n<div class=\"tm-article-poll__answers\"><!--[--><\/p>\n<div class=\"tm-article-poll__answer\">\n<div class=\"tm-article-poll__answer-data\"><span class=\"tm-article-poll__answer-percent tm-article-poll__answer-percent_winning\">100% <\/span><span class=\"tm-article-poll__answer-label\">\u041d\u0435 \u0431\u0443\u0434\u0443<\/span><span class=\"tm-article-poll__answer-votes\">2<\/span><\/div>\n<div class=\"tm-article-poll__answer-bar\">\n<div class=\"tm-article-poll__answer-progress tm-article-poll__answer-progress_winning\" style=\"width: 100%\"><\/div>\n<\/div>\n<\/div>\n<div class=\"tm-article-poll__answer\">\n<div class=\"tm-article-poll__answer-data\"><span class=\"tm-article-poll__answer-percent\">0% <\/span><span class=\"tm-article-poll__answer-label\">\u0411\u0443\u0434\u0443 \u0443\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0442\u044c \u0441\u043e\u0440\u0435\u0432\u043d\u043e\u0432\u0430\u043d\u0438\u044f \u043f\u043e \u0440\u0430\u0437\u043c\u0435\u0440\u0443 \u0434\u0430\u0442\u0430\u0441\u0435\u0442\u0430 \u0441 \u0442\u0435\u043a\u0441\u0442\u043e\u043c \u0434\u043b\u044f \u043c\u043e\u0434\u0435\u043b\u0438<\/span><span class=\"tm-article-poll__answer-votes\">0<\/span><\/div>\n<div class=\"tm-article-poll__answer-bar\">\n<div class=\"tm-article-poll__answer-progress\" style=\"width: 0%\"><\/div>\n<\/div>\n<\/div>\n<div class=\"tm-article-poll__answer\">\n<div class=\"tm-article-poll__answer-data\"><span class=\"tm-article-poll__answer-percent\">0% <\/span><span class=\"tm-article-poll__answer-label\">\u0411\u0443\u0434\u0443 \u0443\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0442\u044c \u0441\u043e\u0440\u0435\u0432\u043d\u043e\u0432\u0430\u043d\u0438\u044f, \u0443 \u043a\u043e\u0433\u043e \u043c\u043e\u0434\u0435\u043b\u044c \u0442\u043e\u0447\u043d\u0435\u0435 \u043e\u0431\u0443\u0447\u0438\u0442\u0441\u044f \u0437\u0430 1 \u0447\u0430\u0441 \u043d\u0430 \u0431\u043e\u043b\u044c\u0448\u043e\u043c \u0434\u0430\u0442\u0430\u0441\u0435\u0442\u0435.<\/span><span class=\"tm-article-poll__answer-votes\">0<\/span><\/div>\n<div class=\"tm-article-poll__answer-bar\">\n<div class=\"tm-article-poll__answer-progress\" style=\"width: 0%\"><\/div>\n<\/div>\n<\/div>\n<p><!--]--><\/div>\n<div class=\"tm-article-poll__stats\"> \u041f\u0440\u043e\u0433\u043e\u043b\u043e\u0441\u043e\u0432\u0430\u043b\u0438 2 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044f.    \u0412\u043e\u0437\u0434\u0435\u0440\u0436\u0430\u0432\u0448\u0438\u0445\u0441\u044f \u043d\u0435\u0442. <\/div>\n<p><!--]--><\/div>\n<p><!--]--><\/div>\n<p> \u0441\u0441\u044b\u043b\u043a\u0430 \u043d\u0430 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b \u0441\u0442\u0430\u0442\u044c\u0438 <a href=\"https:\/\/habr.com\/ru\/articles\/846362\/\"> https:\/\/habr.com\/ru\/articles\/846362\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<div><!--[--><!--]--><\/div>\n<div id=\"post-content-body\">\n<div>\n<div class=\"article-formatted-body article-formatted-body article-formatted-body_version-2\">\n<div xmlns=\"http:\/\/www.w3.org\/1999\/xhtml\">\n<p>\u041f\u0440\u0438\u0432\u0435\u0442! \u042f \u0440\u0435\u0448\u0438\u043b \u0432\u0435\u0440\u043d\u0443\u0442\u044c\u0441\u044f \u043a \u0441\u043e\u0437\u0434\u0430\u043d\u0438\u044e \u043c\u043e\u0434\u0435\u043b\u0438 \u043d\u0430 \u043e\u0441\u043d\u043e\u0432\u0435 \u0440\u0435\u043a\u0443\u0440\u0440\u0435\u043d\u0442\u043d\u044b\u0445 \u043d\u0435\u0439\u0440\u043e\u043d\u043d\u044b\u0445 \u0441\u0435\u0442\u0435\u0439. \u041e\u043d\u0430 \u043f\u043e\u043a\u0430\u0437\u0430\u043b\u0430\u0441\u044c \u043c\u043d\u0435 \u043e\u0447\u0435\u043d\u044c \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u043e\u0439, \u0432\u0435\u0434\u044c \u043c\u043d\u0435 \u043b\u0438\u0447\u043d\u043e \u043d\u0440\u0430\u0432\u0438\u0442\u0441\u044f \u043d\u0435 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u044c \u043f\u043e \u043d\u0430\u0437\u043d\u0430\u0447\u0435\u043d\u0438\u044e, \u0430 \u0441\u043c\u043e\u0442\u0440\u0435\u0442\u044c, \u043a\u0430\u043a \u043e\u043d\u0430 \u0443\u0447\u0438\u0442\u0441\u044f \u043f\u0440\u0438 \u043e\u043f\u0440\u0435\u0434\u0435\u043b\u0451\u043d\u043d\u044b\u0445 \u043f\u043e\u043a\u0430\u0437\u0430\u0442\u0435\u043b\u044f\u0445.<\/p>\n<p>\u042f \u0440\u0435\u0448\u0438\u043b \u0441\u0438\u043b\u044c\u043d\u043e \u0443\u043f\u0440\u043e\u0441\u0442\u0438\u0442\u044c \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435 \u043a\u043e\u0434\u0430, \u0441\u043e\u0437\u0434\u0430\u0432 \u043c\u043d\u043e\u0436\u0435\u0441\u0442\u0432\u043e \u043d\u0430\u0441\u0442\u0440\u043e\u0435\u043a \u0438 \u0443\u043a\u0430\u0437\u0430\u0432, \u043a\u0430\u043a\u0438\u0435 \u043c\u043e\u0436\u043d\u043e \u0438\u0437\u043c\u0435\u043d\u044f\u0442\u044c \u0438 \u043f\u043e\u0434\u043a\u0440\u0443\u0447\u0438\u0432\u0430\u0442\u044c \u043f\u043e\u0434 \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0435 \u043d\u0443\u0436\u0434\u044b, \u0435\u0441\u043b\u0438 \u0442\u0430\u043a\u0438\u0435 \u043d\u0430\u0439\u0434\u0443\u0442\u0441\u044f. \u042f \u0442\u0430\u043a \u0436\u0435 \u0441\u0434\u0435\u043b\u0430\u043b \u043a\u0440\u0430\u0441\u0438\u0432\u044b\u0439 \u043f\u0440\u043e\u0433\u0440\u0435\u0441\u0441\u0431\u0430\u0440, \u0432\u0435\u0434\u044c \u043f\u0440\u043e\u0433\u0440\u0430\u043c\u043c\u0430 \u0442\u043e\u043b\u044c\u043a\u043e \u043f\u0440\u0438 \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 \u0442\u0435\u043a\u0441\u0442\u0430 \u043c\u043d\u043e\u0433\u043e \u043f\u0438\u0448\u0435\u0442<\/p>\n<p>\u0414\u043b\u044f \u043d\u0430\u0447\u0430\u043b\u0430 \u044f \u0440\u0435\u0448\u0438\u043b \u043e\u0431\u043d\u043e\u0432\u0438\u0442\u044c \u0441\u0430\u043c\u0438 \u0441\u043b\u043e\u0438. \u042f \u043f\u043e\u043d\u044f\u043b, \u0447\u0442\u043e \u0441\u043e\u0437\u0434\u0430\u043d\u0438\u0435 \u043b\u0438\u0448\u043d\u0438\u0445 \u0441\u043b\u043e\u0451\u0432 \u0441\u043e \u0441\u043f\u0435\u0446 \u0441\u0432\u043e\u0439\u0441\u0442\u0432\u0430\u043c\u0438 \u0432 \u0446\u0435\u043b\u043e\u043c \u043d\u0435 \u043e\u0447\u0435\u043d\u044c \u043d\u0443\u0436\u043d\u044b, \u0432\u0435\u0434\u044c \u043d\u0430\u0448\u0430 \u0437\u0430\u0434\u0430\u0447\u0430 \u0441\u043e\u0437\u0434\u0430\u0442\u044c \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u0438, \u043a\u043e\u0442\u043e\u0440\u0430\u044f \u0431\u0443\u0434\u0435\u0442 \u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u043d\u0430 \u043e\u0431\u044b\u0447\u043d\u043e\u043c \u043a\u043e\u043c\u043f\u044c\u044e\u0442\u0435\u0440\u0435, \u0430 \u043d\u0430\u043f\u0440\u0438\u043c\u0435\u0440 \u0441\u043b\u043e\u0439 \u0432\u043d\u0438\u043c\u0430\u043d\u0438\u044f \u0441\u0438\u043b\u044c\u043d\u043e \u0443\u0432\u0435\u043b\u0438\u0447\u0438\u0432\u0430\u0435\u0442 \u0432\u0440\u0435\u043c\u044f \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f, \u043f\u0443\u0441\u0442\u044c \u0438 \u0434\u0435\u043b\u0430\u0435\u0442 \u043c\u043e\u0434\u0435\u043b\u044c \u0442\u043e\u0447\u043d\u0435\u0439.<\/p>\n<p>\u0412\u043e\u0442 \u043a\u0430\u043a \u0432\u044b\u0433\u043b\u044f\u0434\u044f\u0442 \u0438\u043c\u043f\u043e\u0440\u0442 \u0432\u0441\u0435\u0445 \u0441\u043e\u0441\u0442\u0430\u0432\u043b\u044f\u044e\u0449\u0438\u0445 \u0438 \u0441\u043e\u0437\u0434\u0430\u043d\u0438\u0435 \u0441\u043b\u043e\u0451\u0432:<\/p>\n<pre><code class=\"python\"># \u0424\u0443\u043d\u043a\u0446\u0438\u044f \u0434\u043b\u044f \u0441\u043e\u0437\u0434\u0430\u043d\u0438\u044f \u043c\u043e\u0434\u0435\u043b\u0438 def create_model(total_words, max_sequence_len):     model = Sequential()     model.add(Embedding(total_words, 100, input_length=max_sequence_len-1)) # \u0427\u0438\u0441\u043b\u043e \u043d\u0435\u0439\u0440\u043e\u043d\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u043c\u0435\u043d\u044f\u0442\u044c     model.add(LSTM(100)) # \u0427\u0438\u0441\u043b\u043e \u043d\u0435\u0439\u0440\u043e\u043d\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u043c\u0435\u043d\u044f\u0442\u044c     for _ in range(2): # \u0427\u0438\u0441\u043b\u043e \u043d\u0435\u0439\u0440\u043e\u043d\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u043c\u0435\u043d\u044f\u0442\u044c         model.add(Dense(100)) # \u0427\u0438\u0441\u043b\u043e \u043d\u0435\u0439\u0440\u043e\u043d\u043e\u0432 \u043c\u043e\u0436\u043d\u043e \u043c\u0435\u043d\u044f\u0442\u044c     model.add(Dense(total_words, activation='softmax'))     model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])     return model<\/code><\/pre>\n<p>\u041e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u043d\u0435 \u0441\u0438\u043b\u044c\u043d\u043e \u0438\u0437\u043c\u0435\u043d\u0438\u043b\u043e\u0441\u044c, \u0440\u0430\u0437\u0432\u0435 \u0447\u0442\u043e \u044f \u0438\u0437\u043c\u0435\u043d\u0438\u043b \u0442\u0443 \u0447\u0430\u0441\u0442\u044c, \u0433\u0434\u0435 \u0437\u0430\u0434\u0430\u0451\u0442\u0441\u044f \u0434\u0430\u0442\u0430\u0441\u0435\u0442 \u0441 \u0442\u0435\u043a\u0441\u0442\u043e\u043c. \u0418\u0437 \u043f\u0440\u0435\u0434\u044b\u0434\u0443\u0449\u0435\u0439 \u0441\u0442\u0430\u0442\u044c\u0438 \u044f \u043f\u043e\u043d\u044f\u043b, \u0447\u0442\u043e \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u0438 \u043c\u043e\u0433\u0443\u0442 \u043d\u0435 \u043f\u043e\u043d\u0438\u043c\u0430\u0442\u044c, \u043a\u0430\u043a\u043e\u0439 \u0438\u043c\u0435\u043d\u043d\u043e \u0442\u0435\u043a\u0441\u0442 \u043d\u0443\u0436\u0435\u043d. \u042f \u0441\u0440\u0430\u0437\u0443 \u0433\u043e\u0432\u043e\u0440\u044e, <strong>\u043e\u0431\u0443\u0447\u0430\u0439\u0442\u0435 \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0430 \u043b\u044e\u0431\u043e\u043c \u0442\u0435\u043a\u0441\u0442\u0435!<\/strong> \u041f\u0440\u043e\u0441\u0442\u043e \u0437\u0430\u0434\u0430\u0439\u0442\u0435 \u0437\u0430\u043f\u0440\u043e\u0441 \u0432 \u0433\u0443\u0433\u043b, \u043d\u0430\u043f\u0440\u0438\u043c\u0435\u0440 &#171;\u0427\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442 \u043f\u0440\u043e\u043a\u0440\u0430\u0441\u0442\u0438\u043d\u0438\u0440\u043e\u0432\u0430\u0442\u044c&#187; \u0438 \u043e\u0442\u0432\u0435\u0442 \u0437\u0430\u043f\u0438\u0448\u0438\u0442\u0435 \u0432 \u0442\u0435\u043a\u0441\u0442\u043e\u0432\u044b\u0439 \u0444\u0430\u0439\u043b. \u0413\u043b\u0430\u0432\u043d\u043e\u0435, \u0447\u0442\u043e\u0431\u044b \u0442\u0435\u043a\u0441\u0442 \u0431\u044b\u043b \u0431\u043e\u043b\u044c\u0448\u0435 200 \u0441\u0438\u043c\u0432\u043e\u043b\u043e\u0432, \u0435\u0433\u043e \u043c\u0430\u043a\u0441\u0438\u043c\u0430\u043b\u044c\u043d\u044b\u0439 \u0440\u0430\u0437\u043c\u0435\u0440 \u0432 \u0442\u0435\u043e\u0440\u0438\u0438 \u043d\u0435 \u043e\u0433\u0440\u0430\u043d\u0438\u0447\u0435\u043d. \u0412\u043e\u0442 \u043a\u043e\u0434 \u0444\u0443\u043d\u043a\u0446\u0438\u0438 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f:<\/p>\n<pre><code class=\"python\"># \u0424\u0443\u043d\u043a\u0446\u0438\u044f \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f \u043d\u0435\u0439\u0440\u043e\u0441\u0435\u0442\u0438 def train_model(TextData, max_sequence_len):     tokenizer = Tokenizer(char_level=True)     tokenizer.fit_on_texts(TextData)     total_chars = len(tokenizer.word_index) + 1      input_sequences = []     for i in range(0, len(TextData) - max_sequence_len, 1):         sequence = TextData[i:i + max_sequence_len]         input_sequences.append(sequence)      input_sequences = tokenizer.texts_to_sequences(input_sequences)     input_sequences = np.array(input_sequences)     xs, labels = input_sequences[:, :-1], input_sequences[:, -1]     ys = tf.keras.utils.to_categorical(labels, num_classes=total_chars)      model = create_model(total_chars, max_sequence_len)     epochs = 0     while True:         history = model.fit(xs, ys, epochs=1, verbose=1)         accuracy = history.history['accuracy'][0]         if accuracy &gt; 0.7: # \u041d\u0430\u0441\u0442\u0440\u0430\u0438\u0432\u0430\u0435\u043c\u044b\u0439 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440             break         epochs += 1      model.save('\u041f\u0443\u0442\u044c_\u043a_\u0442\u0435\u043a\u0441\u0442\u043e\u0432\u043e\u043c\u0443_\u0444\u0430\u0439\u043b\u0443')     return model, tokenizer<\/code><\/pre>\n<p>\u0417\u0430\u043c\u0435\u0442\u044c\u0442\u0435, \u0447\u0442\u043e \u043c\u043e\u0434\u0435\u043b\u044c \u043e\u0431\u0443\u0447\u0430\u0435\u0442\u0441\u044f \u0434\u043e \u0442\u0435\u0445 \u043f\u043e\u0440, \u043f\u043e\u043a\u0430 \u043f\u043e\u043a\u0430\u0437\u0430\u0442\u0435\u043b\u044c \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u0438 \u043d\u0435 \u043f\u0440\u0435\u0432\u044b\u0441\u0438\u0442 0,7.  \u041a\u043e\u043d\u0435\u0447\u043d\u043e \u0436\u0435 \u0432\u044b \u043c\u043e\u0436\u0435\u0442\u0435 \u0438\u0437\u043c\u0435\u043d\u0438\u0442\u044c \u044d\u0442\u043e\u0442 \u043f\u043e\u043a\u0430\u0437\u0430\u0442\u0435\u043b\u044c, \u0435\u0441\u043b\u0438 \u043d\u0443\u0436\u043d\u043e.<\/p>\n<p>\u0413\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u044f \u0442\u0435\u043a\u0441\u0442\u0430 \u043f\u043e\u043b\u0443\u0447\u0438\u043b\u0430 \u0432\u0430\u0436\u043d\u043e\u0435 \u043e\u0431\u043d\u043e\u0432\u043b\u0435\u043d\u0438\u0435. \u041e\u043d\u0430 \u043f\u043e\u043b\u0443\u0447\u0438\u043b\u0430 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435 \u0442\u0435\u043c\u043f\u0435\u0440\u0430\u0442\u0443\u0440\u044b, \u0447\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442 \u043d\u0430\u0441\u0442\u0440\u043e\u0439\u043a\u0443 \u0440\u0430\u0437\u043d\u043e\u043e\u0431\u0440\u0430\u0437\u0438\u044f \u0442\u0435\u043a\u0441\u0442\u0430. \u0412\u043e\u0442 \u043a\u043e\u0434:<\/p>\n<pre><code class=\"python\"># \u0424\u0443\u043d\u043a\u0446\u0438\u044f \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 \u0442\u0435\u043a\u0441\u0442\u0430  def generate_text(seed_text, next_chars, model, max_sequence_len, tokenizer, temperature=0.7): # \u041d\u0430\u0441\u0442\u0440\u043e\u0439\u0442\u0435 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440 \u0442\u0435\u043c\u043f\u0435\u0440\u0430\u0442\u0443\u0440\u044b.     generated_text = seed_text     for _ in tqdm(range(next_chars), desc=\"Generating text\"):         token_list = tokenizer.texts_to_sequences([seed_text])[0]         token_list = pad_sequences([token_list], maxlen=max_sequence_len-1, padding='pre')          predicted_probs = model.predict(token_list, verbose=0)[0]         predicted_probs = np.log(predicted_probs) \/ temperature         exp_preds = np.exp(predicted_probs)         predicted_probs = exp_preds \/ np.sum(exp_preds)         predicted = np.random.choice(len(predicted_probs), p=predicted_probs)         output_char = tokenizer.index_word.get(predicted, \"\")         seed_text += output_char         generated_text += output_char      return generated_text<\/code><\/pre>\n<p>\u0418\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u0441\u0438\u043b\u044c\u043d\u043e \u043d\u0435 \u0438\u0437\u043c\u0435\u043d\u0438\u043b\u043e\u0441\u044c. \u0420\u0430\u0437\u0432\u0435 \u0447\u0442\u043e \u0431\u044b\u043b\u0438 \u043f\u043e\u0434\u043f\u0440\u0430\u0432\u043b\u0435\u043d\u044b \u043d\u0435\u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u043d\u044e\u0430\u043d\u0441\u044b, \u043d\u043e \u044d\u0442\u043e \u043c\u0435\u043b\u043e\u0447\u0438. \u0412\u043e\u0442 \u043a\u043e\u0434:<\/p>\n<pre><code class=\"python\"># \u0425\u043e\u0447\u0435\u0442 \u043b\u0438 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? train_new_model = input(\"\u0425\u043e\u0442\u0438\u0442\u0435 \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? (\u0434\u0430\/\u043d\u0435\u0442)): \") if train_new_model.lower() == \"\u0434\u0430\":     # \u0417\u0430\u0433\u0440\u0443\u0436\u0430\u0435\u043c \u0434\u0430\u0442\u0430\u0441\u0435\u0442     with open('\u041f\u0443\u0442\u044c_\u043a_\u0434\u0430\u0442\u0430\u0441\u0435\u0442\u0443', 'r') as file:         TextData = file.read().replace('\\n', ' ')     max_sequence_len = 100 # \u041d\u0430\u0441\u0442\u0440\u043e\u0439\u0442\u0435 (\u043e\u043d \u0434\u043e\u043b\u0436\u0435\u043d \u0431\u044b\u0442\u044c \u0442\u0430\u043a\u0438\u043c \u0436\u0435, \u043a\u0430\u043a \u0441\u043d\u0438\u0437\u0443)     model, tokenizer = train_model(TextData, max_sequence_len) else:     # \u041e\u0431\u0443\u0447\u043d\u043d\u0430\u044f \u043c\u043e\u0434\u0435\u043b\u044c     model = load_model('\u041f\u0443\u0442\u044c_\u043a_\u0444\u0430\u0439\u043b\u0443_\u043c\u043e\u0434\u0435\u043b\u0438\/text_generation_model.h5')     tokenizer = Tokenizer(char_level=True)     with open('\u041f\u0443\u0442\u044c_\u043a_\u0434\u0430\u0442\u0430\u0441\u0435\u0442\u0443', 'r') as file:         TextData = file.read().replace('\\n', ' ')     tokenizer.fit_on_texts(TextData)     max_sequence_len = 100 # \u041d\u0430\u0441\u0442\u0440\u043e\u0439\u0442\u0435 (\u043e\u043d \u0434\u043e\u043b\u0436\u0435\u043d \u0431\u044b\u0442\u044c \u0442\u0430\u043a\u0438\u043c \u0436\u0435, \u043a\u0430\u043a \u0441\u0432\u0435\u0440\u0445\u0443)  # \u0413\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u044f \u0438 \u0432\u044b\u0432\u043e\u0434 \u0442\u0435\u043a\u0441\u0442\u0430 while True:     seed_text = input(\"\u0412\u044b: \")     next_chars = 200 # \u041d\u0430\u0441\u0442\u0440\u043e\u0439\u0442\u0435 \u0434\u043b\u0438\u043d\u0443 \u0433\u0435\u043d\u0435\u0440\u0438\u0440\u0443\u0435\u043c\u043e\u0433\u043e \u0442\u0435\u043a\u0441\u0442\u0430     generated_text = generate_text(seed_text, next_chars, model, max_sequence_len, tokenizer)     print(\"\u0418\u0418: \", generated_text)<\/code><\/pre>\n<p>\u0412\u0441\u0451! \u041c\u043e\u0434\u0435\u043b\u044c \u0441\u043e\u0437\u0434\u0430\u043d\u0430. \u0422\u0435\u043f\u0435\u0440\u044c \u0443 \u0432\u0430\u0441 \u0435\u0441\u0442\u044c \u043f\u0440\u043e\u0431\u043b\u0435\u043c\u0430 \u0434\u043b\u044f \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u044f \u0438 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u044f \u0433\u0435\u043d\u0435\u0440\u0430\u0442\u043e\u0440\u043e\u0432 \u0442\u0435\u043a\u0441\u0442\u0430. \u041d\u0430 \u0432\u0441\u044f\u043a\u0438\u0439 \u0441\u043b\u0443\u0447\u0430\u0439 \u0432\u044b\u0441\u044b\u043b\u0430\u044e \u0432\u0430\u043c \u043f\u043e\u043b\u043d\u044b\u0439 \u043a\u043e\u0434, \u0442\u0430\u043a\u043e\u0439, \u043a\u0430\u043a \u0443 \u043c\u0435\u043d\u044f \u0432 \u0413\u0443\u0433\u043b \u043a\u043e\u043b\u043b\u0430\u0431\u0435:<\/p>\n<pre><code class=\"python\">import tensorflow as tf from tensorflow.keras.models import Sequential, load_model from tensorflow.keras.layers import Embedding, LSTM, Dense from tensorflow.keras.preprocessing.text import Tokenizer from tensorflow.keras.preprocessing.sequence import pad_sequences import numpy as np from tqdm import tqdm  # \u0421\u043e\u0437\u0434\u0430\u0451\u043c \u043c\u043e\u0434\u0435\u043b\u044c def create_model(total_words, max_sequence_len):     model = Sequential()     model.add(Embedding(total_words, 700, input_length=max_sequence_len-1))     model.add(LSTM(700))     for _ in range(2):         model.add(Dense(700))     model.add(Dense(total_words, activation='softmax'))     model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])     return model  # \u041e\u0431\u0443\u0447\u0430\u0435\u043c \u043c\u043e\u0434\u0435\u043b\u044c  def train_model(TextData, max_sequence_len):     tokenizer = Tokenizer(char_level=True)     tokenizer.fit_on_texts(TextData)     total_chars = len(tokenizer.word_index) + 1      input_sequences = []     for i in range(0, len(TextData) - max_sequence_len, 1):         sequence = TextData[i:i + max_sequence_len]         input_sequences.append(sequence)      input_sequences = tokenizer.texts_to_sequences(input_sequences)     input_sequences = np.array(input_sequences)     xs, labels = input_sequences[:, :-1], input_sequences[:, -1]     ys = tf.keras.utils.to_categorical(labels, num_classes=total_chars)      model = create_model(total_chars, max_sequence_len)     epochs = 0     while True:         history = model.fit(xs, ys, epochs=1, verbose=1)         accuracy = history.history['accuracy'][0]         if accuracy &gt; 0.7:             break         epochs += 1      model.save('\/content\/drive\/MyDrive\/Colab Notebooks\/text_generation_model.h5')     return model, tokenizer  # \u0413\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u044f \u0442\u0435\u043a\u0441\u0442\u0430 def generate_text(seed_text, next_chars, model, max_sequence_len, tokenizer, temperature=0.7):     generated_text = seed_text     for _ in tqdm(range(next_chars), desc=\"Generating text\"):         token_list = tokenizer.texts_to_sequences([seed_text])[0]         token_list = pad_sequences([token_list], maxlen=max_sequence_len-1, padding='pre')          predicted_probs = model.predict(token_list, verbose=0)[0]         predicted_probs = np.log(predicted_probs) \/ temperature         exp_preds = np.exp(predicted_probs)         predicted_probs = exp_preds \/ np.sum(exp_preds)         predicted = np.random.choice(len(predicted_probs), p=predicted_probs)         output_char = tokenizer.index_word.get(predicted, \"\")         seed_text += output_char         generated_text += output_char      return generated_text  # \u0425\u043e\u0447\u0435\u0442 \u043b\u0438 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? train_new_model = input(\"\u0425\u043e\u0442\u0438\u0442\u0435 \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? (\u0434\u0430\/\u043d\u0435\u0442)): \") if train_new_model.lower() == \"\u0434\u0430\":     # \u0437\u0430\u0433\u0440\u0443\u0436\u0430\u0435\u043c \u0434\u0430\u0442\u0430\u0441\u0435\u0442     with open('\/content\/drive\/MyDrive\/Colab Notebooks\/TextData.txt', 'r') as file:         TextData = file.read().replace('\\n', ' ')     max_sequence_len = 200     model, tokenizer = train_model(TextData, max_sequence_len) else:     # \u0437\u0430\u0433\u0440\u0443\u0436\u0430\u0435\u043c \u043c\u043e\u0434\u0435\u043b\u044c     model = load_model('\/content\/drive\/MyDrive\/Colab Notebooks\/text_generation_model.h5')     tokenizer = Tokenizer(char_level=True)     with open('\/content\/drive\/MyDrive\/Colab Notebooks\/TextData.txt', 'r') as file:         TextData = file.read().replace('\\n', ' ')     tokenizer.fit_on_texts(TextData)     max_sequence_len = 200  # \u0418\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u043c \u043c\u043e\u0434\u0435\u043b\u044c while True:     seed_text = input(\"\u0412\u044b: \")     next_chars = 200     generated_text = generate_text(seed_text, next_chars, model, max_sequence_len, tokenizer)     print(\"\u0418\u0418: \", generated_text)<\/code><\/pre>\n<p>\u041f\u0440\u0438\u043c\u0435\u0440 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043d\u0438\u044f:<\/p>\n<pre><code>\u0425\u043e\u0442\u0438\u0442\u0435 \u043e\u0431\u0443\u0447\u0438\u0442\u044c \u043d\u043e\u0432\u0443\u044e \u043c\u043e\u0434\u0435\u043b\u044c? (\u0434\u0430\/\u043d\u0435\u0442): \u0434\u0430 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 13s 6ms\/step - accuracy: 0.2180 - loss: 2.8713 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 7ms\/step - accuracy: 0.3566 - loss: 2.2326 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 12s 7ms\/step - accuracy: 0.4425 - loss: 1.9001 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 7ms\/step - accuracy: 0.5110 - loss: 1.6469 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 12s 7ms\/step - accuracy: 0.5526 - loss: 1.4746 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 12s 7ms\/step - accuracy: 0.6003 - loss: 1.3076 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 12s 7ms\/step - accuracy: 0.6386 - loss: 1.1710 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 7ms\/step - accuracy: 0.6808 - loss: 1.0347 1730\/1730 \u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501\u2501 11s 6ms\/step - accuracy: 0.7113 - loss: 0.9224<\/code><\/pre>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[],"tags":[],"class_list":["post-433467","post","type-post","status-publish","format-standard","hentry"],"_links":{"self":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts\/433467","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=433467"}],"version-history":[{"count":0,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts\/433467\/revisions"}],"wp:attachment":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=433467"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=433467"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=433467"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}