Часто специалистам по искусственному интеллекту приходится слышать утверждения в духе «Искусственный интеллект не может быть создан, пока не будет понят интеллект естественный». Иногда такой точки зрения придерживаются и сами специалисты по ИИ. Например, еще лет 40 назад на одной крупной конференции по нейрофизиологии один известный ученый предположил: «Представьте себе, что мы взяли и забросили компьютер на Марс. А марсиане начали изучать этот компьютер теми средствами, которыми мы исследуем человеческий мозг».
Тогда это был абстрактный мыслительный эксперимент, но недавно, буквально в этом году, вышла весьма спорная статья, где некоторые физиологи, скооперировавшись со специалистами по computer science, фактически воплотили эту идею. Конечно, марсиан они нигде не нашли. Они взяли эмулятор конкретного процессора игр Atari, на котором запускалась определенная игра (например, Space Invaders), и, воспользовавшись самыми современными нейрофизиологическими методиками, попытались изучить таким образом процессор, понять, какая программа на нем работает. Их исследование привело к выводу, что, даже используя современные нейрофизиологические методики, понять, как работает весьма простой процессор, невозможно. А что уж говорить о мозге.
А нужно ли нам, чтобы ИИ полностью повторял естественный интеллект?
Для начала представим, что естественный интеллект — это фотосинтез, а искусственный интеллект — это солнечная батарея. Осуществляет ли солнечная батарея фотосинтез? Если мы будем рассматривать ситуацию с точки зрения формального определения (фотосинтез как процесс преобразования энергии света в энергию химических связей органических веществ на свету фотоавтотрофами при участии фотосинтетических пигментов), то, конечно, нет. Но, с другой стороны, а надо ли нам это? Нет, нам необходимо только, чтобы выполнялась первая часть данного определения — процесс преобразования энергии света в некоторую удобную для использования форму энергии, с чем справляются солнечные батареи.
Соответственно, возникает вопрос: насколько узко стоит понимать интеллект? Если мы понимаем его как вполне конкретный биологический процесс, который использует вполне конкретные, может быть, даже какие-то химические вещества или физические процессы, то да, стоит признать, что интеллект невозможен на базе компьютеров. Но нам ведь такой интеллект не очень-то и нужен.
Напротив, нам не стоит пытаться уподобить нашу систему когнитивной архитектуре человеческого мозга, а попробовать понять, зачем те или иные когнитивные функции нужны интеллекту. Когда же мы руководствуемся «биологической метафорой», мы зачастую воспроизводим, причем в очень упрощенном виде, то, что есть в естественном интеллекте, и то, что нам зачастую не нужно. Скажем, у человека ограниченная кратковременная память. Нам это надо воспроизводить? Вряд ли.
В этом смысле и заключается ее вред: упрощенная метафора толкает нас на создание нерелевантных моделей, а настоящее дело при этом не движется.
А что нам нужно?
Основной момент, от которого мы должны отталкиваться, — это понимание того, что именно мы хотим создать. Еще один конкретный показательный пример — AlphaGo, программа, которая выиграла у одного из сильнейших игроков в мире Ли Седоля в древнюю и долгое время являвшуюся крайне сложной для компьютера игру.
Всмотритесь в картинку. Мы видим человека, испытывающего эмоции, осознающего, что он сейчас проиграет. Но почему мы не признаем за AlphaGo право быть полноценным ИИ? Потому что AlphaGo не радуется победе? Не сочувствует человеку? Или по какой-то другой причине? Я думаю, что многие со мной согласятся, но создание таких машин, которые будут обладать субъективными переживаниями, самосознанием и прочим, является далеко не первоочередной нашей целью. Но чего же нам действительно не хватает?
Посмотрим на разные решения, которые уже побеждают людей в очень сложных играх, которые лучше человека играют в настольный теннис или могут управлять автомобилем. Что нас в них не устраивает? Прежде всего, то, что это разные решения. Это разные программы, разные системы, которые специализированы под конкретную задачу. Поэтому, как только возникает какая-то новая задача, нам приходится создавать уже другую систему. А теперь представим, что у нас есть компьютер, который сам может вырабатывать решения для каждой конкретной задачи. Нам было бы этого вполне достаточно. По крайней мере, на данном этапе, чтобы сказать: цель создания ИИ достигнута.
Что такое общий искусственный интеллект, или как научить машину мыслить?
На самом деле эта проблема существует столь же долго, сколько идет изучение и попытки создания искусственного интеллекта. Еще на заре существования этой области, когда одной из наиболее продвинутых парадигм было эвристическое программирование, уже тогда неоднократно звучала критика о том, что это не ИИ. Ведь нам нужно программировать компьютер каждый раз под конкретную задачу, и, условно говоря, даже если вы запрограммируете его на 1000 игр, в 1001 он играть уже не сможет.
Чтобы исключить проблему, предлагались различные способы — например, разработка общего решателя задач и другие. Но достойного решения так и не появлялось. Постепенно энтузиазм сменился весьма настороженным отношением к этой цели, и до недавнего времени о возможности создания мыслящих машин в приличном обществе предпочиталось и вовсе не говорить. Ситуация начала меняться в течение последних 10 лет, когда стала развиваться такая область, как общий искусственный интеллект. Его цель и состоит в том, чтобы создавать такие системы, которые смогли бы решать все задачи, пусть пока и не на самом высоком уровне.
Как это выражено? Сейчас есть много практических тестов, направленных на выявление уровня общего интеллекта компьютеров. Для этого создаются разные фреймворки, наборы сред, в рамках которых один и тот же агент тестируется на разных задачах. Это и ставшие уже классическими состязания General Game Playing, когда компьютер должен играть в неизвестную для него заранее игру, и автоматическое машинное обучение, где мы не создаем систему под конкретную выборку данных, а тренируем ее на произвольных выборках данных, чтобы она сама была способна решать разные задачи.
Основные тенденции
Если брать, например, те же самые нейронные сети (и, в частности, сети глубокого обучения, которые сейчас очень широко и успешно используются в самых разных задачах), можно увидеть очень хорошо соответствующие духу общего ИИ тенденции. Например, дифференцируемый нейронный компьютер (новая методика обработки данных, которая позволяет машине учиться, используя собственную память — прим. ред.). Этот компьютер может промоделировать любую среду, выучить те законы, по которым она работает. До этого искусственные нейронные сети были гораздо более ограниченными.
Широко разрабатывается мета-обучение. Это гораздо более общее решение, чем просто индивидуальные нейросети. Ведь в случае, если мы берем просто нейросеть глубокого обучения, нам все равно будет необходимо вручную разрабатывать архитектуру, подстраивать нейросеть под решение отдельных задач. В случае же с мета-обученим мы берем одну нейросеть, которая постепенно тренируется обучать уже другую.
Но в области прикладного ИИ развивается не только глубокое обучение. Необходимо вспомнить и о так называемом вероятностном программировании. В этом случае мы, опять же, создаем такие системы, которые могут представлять решение любой задачи. Например, можно создать такую модель, которая описывает любую среду. Дело за малым — просто сделать это достаточно эффективно.
И наконец, если попытаться охватить все достижения в этой области целиком, очевидной становится тенденция к синтезу решений, полученных в разных сферах. Например, над библиотекой глубокого обучения TensorFlow есть надстройка вероятностного программирования, которая позволяет строить гораздо более выразительные модели. И наоборот, в рамках вероятностного программирования уже есть и продолжают появляться такие работы, которые компилируют вероятностную программу в сеть глубокого обучения, тем самым достигая большей эффективности.
Все эти области, так или иначе, крутятся вокруг центральной проблемы. И в итоге все это может свидетельствовать о том, что мы движемся в нужном направлении.
Что дальше: ИИ превзойдет человека, а роботы получат права?
Предсказания о развитии самообучающегося ИИ делаются совершенно разные. Но давайте разберемся сначала, что подразумевать под апогеем самообучающегося искусственного интеллекта? Если имеется в виду создание общего ИИ, который может в будущем превзойти уровень человека, — это одно. Прогнозы на этот счет охватывают период 20—50-х годов. Но если же мы говорим о некой теории самообучающегося ИИ в целом, я думаю, к первым таким результатам нам стоит готовиться уже в 20-е годы. И это будет не только теоретическое рассмотрение вопроса и простенькие эксперименты. В это время должна появиться такая теория, которая будет приводить к хорошим практическим результатам.
А вот вопрос о юридическом статусе роботов, о наделении их правами и обязанностями уже сейчас обсуждается в Евросоюзе. На первый взгляд, это может показаться смешным, но давайте подумаем шире. Одно из уже озвученных предложений касается наделения роботов правами и обязанностями, сходными с правами и обязанностями юридических лиц. Например, у нас есть компания, с которой мы ведем какие-либо отношения. Это не отдельный конкретный человек, но кто-то же должен нести ответственность за ее действия, равно как и получать прибыль? Так и в случае с ИИ, если у нас какой-то искусственный интеллектуальный агент разработал новый метод, кого считать правообладателем этого метода? Разработчика этого автономного ИИ, того человека, который его использует, или же сам ИИ как некоторое юридическое лицо? Вопросы хорошие и достаточно релевантные.
Отметим, что, согласно отчету, предоставленному в Европарламент и вынесенному на обсуждение, ИИ превзойдет человеческий интеллект в течение ближайших десятилетий. В документе отмечается, что исследования в области робототехники должны вестись с учетом основных прав и интересов человека. Помимо создания европейского агентства по роботам и искусственному интеллекту, которое сможет проводить экспертизу в технической и этической сферах, отчет также рассматривает возможность введения юридической ответственности в сфере робототехники и предполагает, что уровень ответственности должен быть пропорционален уровню инструкций, полученных роботом, а также уровню его автономности.