интуиция Искусственного Интеллекта — миф или реальность?

от автора

Одно из самых известных, наиболее интересное и совсем не изученное свойство человеческого разума с давних пор привлекавшее исследователей это интуиция.

Со времен древности философы и математики пытались хоть как как то понять и определить смысл этого могучего нашего свойства.
Еще Платон разделял и выделял нелогическое познание,
Декарт, например, утверждал: «Под интуицией я разумею не веру в шаткое свидетельство чувств и не обманчивое суждение беспорядочного воображения, но понятие ясного и внимательного ума, настолько простое и отчётливое, что оно не оставляет никакого сомнения в том, что мы мыслим, или, что одно и то же, прочное понятие ясного и внимательного ума, порождаемое лишь естественным светом разума и благодаря своей простоте более достоверное, чем сама дедукция…».
Гегель указывал на непосредственное знание,
и даже Фейербах упомянул о чувственности познания!

В данной статье автор попытается провести такое же исследование интуиции, но не человеческой, нам всем знакомой и известной, а определить и показать интуицию у искуственного интеллекта, у нейронной сети.

Итак начнем!

для изучения и препарирования возьмем уже привычный, вдоль и поперек изученный, насквозь понятный пример — классика ML, handwritten images MNIST.
И возьмем в дело также всем известный, многократно проверенный и изученный пример сети с сайта keras
https://keras.io/examples/vision/mnist_convnet/

или с Github
https://github.com/keras-team/keras-io/blob/master/examples/vision/mnist_convnet.py

""" Title: Simple MNIST convnet Author: [fchollet](https://twitter.com/fchollet) Date created: 2015/06/19 Last modified: 2020/04/21 Description: A simple convnet that achieves ~99% test accuracy on MNIST. """ import numpy as np from tensorflow import keras from tensorflow.keras import layers  # Model / data parameters num_classes = 10 input_shape = (28, 28, 1)  # the data, split between train and test sets (x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()  # Scale images to the [0, 1] range x_train = x_train.astype("float32") / 255 x_test = x_test.astype("float32") / 255 # Make sure images have shape (28, 28, 1) x_train = np.expand_dims(x_train, -1) x_test = np.expand_dims(x_test, -1) print("x_train shape:", x_train.shape) print(x_train.shape[0], "train samples") print(x_test.shape[0], "test samples")   # convert class vectors to binary class matrices y_train = keras.utils.to_categorical(y_train, num_classes) y_test = keras.utils.to_categorical(y_test, num_classes)  model = keras.Sequential(     [         keras.Input(shape=input_shape),         layers.Conv2D(32, kernel_size=(3, 3), activation="relu"),         layers.MaxPooling2D(pool_size=(2, 2)),         layers.Conv2D(64, kernel_size=(3, 3), activation="relu"),         layers.MaxPooling2D(pool_size=(2, 2)),         layers.Flatten(),         layers.Dropout(0.5),         layers.Dense(num_classes, activation="softmax"),     ] )  model.summary()  batch_size = 512 epochs = 15  model.compile(loss="categorical_crossentropy", optimizer="adam", metrics=["accuracy"])  model.fit(x_train, y_train, batch_size=batch_size, epochs=epochs, verbose=2)  

изменим только всего лишь один параметр — batch_size = 512. Благо карта позволяет.
Проверим результат

score = model.evaluate(x_test, y_test, verbose=0) print("Test loss:", score[0]) print("Test accuracy:", score[1]) Test loss: 0.028873076662421227 Test accuracy: 0.9898999929428101 

так себе результат, бывает и лучше.

И вот теперь, когда на руках не очень хорошо обученая сеть и слабенький результат, попробуем применить интуицию или то, что автор называет интуицией.

Выберем, конечно же интуитивно, некоторое множество из тестовых картинок и проверим, как на этих картинках работает наша сеть

pred = model.predict(x_test)  idx = np.argwhere(     np.array(         [             pred[x, np.argsort(pred, axis=1)[x, -1]]             - pred[x, np.argsort(pred, axis=1)[x, -2]]             for x in range(pred.shape[0])         ]     )     > 0.999 ).reshape(-1) print(idx.shape) score = model.evaluate(x_test[idx], y_test[idx], verbose=0) print("Test loss:", score[0]) print("Test accuracy:", score[1]) 

Оказывается мы выбрали только те картинки из тестового множества где сеть дает 100% результат!

Test loss: 0.00011477641965029761 Test accuracy: 1.0

Обратите внимание, мы учили сеть на TRAIN, а точки интуитивно выбрали из TEST.
Никакого подвоха и сеть не могла подсмотреть.

Но на выбранном множестве картинок результат с accuracy: 1.0

Не буду сейчас обсуждать практическую или теоретическую часть описанного выше явления или, если угодно, свойства сети,
Но факт есть и ничем и никак не обоснованное решение позволяет выбрать точно распознаваемые картинки и сосредоточиться на распознавании оставшихся.
Их кстати меньше половины.
Можно конечно внести изменения и если снизить требования к интуиции ну хоть до 0.99 то мы пропустим только одну или две картинки, но выберем около 9500.
Оставшиеся 500 можно изучить глазамии и сделать тонкую настройку сети и подобающую аугментацию.

Уверен, что правильное применение интуиции AI в таком тонком и сложном вопросе как машинное обучение и искусственный интеллект, несомненно добавит точности вашим сетям.

ссылка на оригинал статьи https://habr.com/ru/post/550032/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *