Искусственный интеллект и понимание смысла
На интуитивном уровне под искусственным интеллектом (ИИ) мы обычно подразумеваем нечто, созданное человеком – искусственную машину, которая может решать широкий круг интеллектуальных задач на том же уровне, что и человек, а желательно – даже лучше. Есть различные определения того, что имеется в виду под понятием «искусственный интеллект», и есть сомнения о том, что ИИ можно создать на базе цифровых компьютеров. Один из аргументов – в том, что машина не понимает смысл. Но какой конкретно нейрон (или группа нейронов) в человеческом мозге отвечает за смысл, и почему это нельзя смоделировать на цифровой машине?
В разговорах на тему искусственного интеллекта часто обсуждают так называемый парадокс китайской комнаты. Предположим, что верна гипотеза физической символьной системы, согласно которой мы можем смоделировать интеллект при правильном манипулировании символами; скомбинируем ее с тестом Тьюринга, согласно которому система обладает интеллектом, если она ведет себя так же, как и человек, в частности, отвечает на вопросы. Представим себе человека в некоторой комнате, который умеет перекладывать таблички в соответствии с выданным ему сводом правил. Ему в окошко подают вопросы на языке, которого он не знает, но он перетасовывает таблички в соответствии со сводом правил и выдает правильный ответ, не понимая его смысла. Автор мысленного эксперимента о китайской комнате Джон Серль усматривает в этом противоречие: он считает, что неверна гипотеза физической символьной системы, то есть для того, чтобы обладать интеллектом, недостаточно манипулировать символами. Один из традиционных контраргументов заключается в том, что пониманием должен обладать не человек, а вся комната целиком, потому что человек выполняет только роль активного агента. Если нет понимания на уровне отдельных нейронов, мы не вправе требовать понимания на уровне отдельных элементов этой комнаты.
Первые исследования и «зима искусственного интеллекта»
Когда область ИИ зарождалась в 50-е годы XX века, исследователи говорили, что времени нужно совсем чуть-чуть, и искусственный интеллект будет создан. Энтузиасты часто недооценивали сложности создания ИИ: в 1956 году был проведен Дартмутский семинар, была собрана группа из 10 исследователей, которые всерьез верили, что проблему создания ИИ они смогут решить за лето; американский ученый Марвин Минский предложил своему студенту за короткие сроки решить проблему компьютерного зрения. В то же время когнитивисты и нейрофизиологи пребывают в ужасе от сложности человеческого интеллекта, и те, кто с ними общался, могут испытывать большой скепсис по поводу того, что это проблема на десятилетия, а не тысячелетия.
Достаточно скоро энтузиазм в области ИИ сменился сначала на уклон в сторону прикладных разработок – стали развиваться экспертные системы, но они не показали каких-то качественных результатов, которые понравились бы бизнесменам, и в 90-е годы началась так называемая «зима искусственного интеллекта». В постсоветской России ученым просто было не до этого. В США, Японии и других странах снизилось финансирование исследований, связанных с ИИ, и в академической среде стало не принято говорить об ИИ как о мыслящих машинах – ученые стали больше заниматься частными проблемами.
Игры и искусственный интеллект
Тем не менее, то, что начальные ожидания оказались слишком завышенными, не говорит о невозможности создания ИИ. Последние 15-20 лет область искусственного интеллекта переживает весну, может быть, даже лето. Во многом благодаря сфокусированности на конкретных прикладных проблемах и росту вычислительных мощностей появилась возможность решать задачи, которые раньше считались трудноразрешимыми. Скажем, уже есть достаточно большой список игр, в которых компьютерный интеллект выигрывает у человеческого, и таких игр, в которых человек все еще держит первенство, становится все меньше.
Первыми «поддались» такие простые игры, как шашки и реверси. Направленными усилиями удалось разработать машину, которая победила человека в шахматы, и после стало популярным строить компьютеры, выигрывающие у человека в самых разных областях. Многие наверняка слышали про суперкомпьютер IBM Watson: в 2011 году он победил чемпиона мира в телеигре Jeopardy! (российский аналог – «Своя игра»).
Превосходство компьютера над человеком в большом количестве игр значимо с точки зрения развития этой области. Американский философ Хьюберт Дрейфус считал, что компьютер не сможет обыгрывать человека в шахматы, так как это творческая задача. На деле критики ИИ смотрели не глубже, чем сами специалисты по ИИ: это был вызов, и он был преодолен. Было преодолено множество вызовов и в прикладных областях: стали активно развиваться роботы, причем не только в промышленных масштабах. Если я не ошибаюсь, парк бытовых роботов начинает превышать размеры парка промышленных роботов.
Прикладное применение
В последние годы появляются новые системы, которые также начинают превосходить человека, к примеру, в 2011 году на соревнованиях по распознаванию дорожных знаков. Количество современных приложений недооценивается даже самими специалистами в области искусственного интеллекта. Интеллектуальный поиск в интернете основан на технологиях ИИ, семантического анализа и так далее, фильтрация спама в e-mail сервисах тоже использует технологии из области машинного обучения.
С середины 2000-х начинает возрождаться интерес к конечной цели, которая ставилась основоположниками области: не просто к разработке каких-то систем, которые делают что-то похожее на решение интеллектуальных задач за счет заложенных человеком алгоритмов, но, собственно к созданию мыслящих машин. Стало появляется больше фирм и стартапов, которые провозгласили своей целью создание так называемого «сильного искусственного интеллекта». Такая активность развивается по всему миру, не только в США: компания DeepMind базируется в Лондоне, Good AI – в Праге, NNAISENSE – в Швейцарии, и так далее.
В последнее время стали слышны мнения насчет опасности ИИ. Еще 15 лет назад это считалось дурным тоном, сейчас же высказывания о том, что ИИ может быть опасным, звучат от Билла Гейтса, миллиардера Илона Маска и многих других. Последний выделил $10 млн на исследования проблем безопасности ИИ, то есть на то, чтобы понять, как его разрабатывать не стоит. Ту же сумму, например, выделил другой бизнесмен, Марек Роса, на саму разработку ИИ в GoodAI. При приобретении корпорацией Google фирмы DeepMind менеджмент последней также поставил условие, что их компания будет заниматься в том числе и проблемами безопасности. Последние год-два исследования безопасности ИИ финансируются чуть ли не лучше, чем собственно разработки сильного искусственного интеллекта.
Сверхинтеллект на основе человеческого
Сейчас широко обсуждается, насколько быстро ИИ сможет превзойти человеческий разум, потому что возможностей по его модификации и расширению будет гораздо больше, чем с человеческим мозгом. И как сверхинтеллект будет вести себя на качественном уровне, нам представить достаточно сложно.
Существуют разные пути создания ИИ, одним из очевидных является полная эмуляция мозга, загрузка человеческого сознания в компьютер. В чем-то этот путь проще, чем создание ИИ с нуля, потому что он не подразумевает сверхинновационных изобретений, а только повышение разрешения для сканеров человеческого мозга и мощностей для его эмуляции. Но возникают большие вопросы о количестве ресурсов, требуемых для подробной эмуляции мозга, – они могут быть несопоставимо больше количества ресурсов, которые потребляет наш мозг. Также непонятно, на каком уровне абстракции вести эмуляцию. В функционировании нашего мозга весьма активно задействована экспрессия генов, и если мы будем моделировать только электронную активность, мы потеряем способность мозга к обучению.
Чтобы улучшить человеческий мозг на уровне алгоритмов, требуется, грубо говоря, восстановить его исходный код. Путь к сверхинтеллекту через генетические улучшения человека гораздо более долгий, чем создание собственно искусственного интеллекта, та же киборгизация вызывает вопросы: человек достаточно хорошо работает с обычными интерфейсами, но очень сложно «копнуть» глубже. В этом направлении ведется много работ, к примеру, по управлению курсором мыши на мониторе компьютера с помощью набора электродов, которые снимают электроэнцефалограмму, но это достаточно утомительный процесс. Чтобы взять и загрузить человеку в мозг умение управлять вертолетом, как в фильме «Матрица», нужно в первую очередь создать сверхинтеллект, который проанализирует и выдаст ответ, какие синапсы надо менять, чтобы у человека возникло это умение. Все исследования в данных областях пойдут гораздо быстрее при наличии ИИ.
Сильный и слабый, или узкий и общий
До 2000-х годов в сфере искусственного интеллекта было принято разделение на сильный и слабый ИИ. Под сильным ИИ подразумевалась такая программа, которая обладает всеми качествами, что и человек, включая понимание, самосознание и так далее. Основные дискуссии сводились к тому, как получить сознание у компьютерной программы, и противостояния порождали обсуждение философских вопросов, а не направляли исследователей на путь создания ИИ. Алан Тьюринг в 50-е пытался это предотвратить – он считал, что субъективные качества важны, но их определения слишком туманны, чтобы на них опираться, поэтому призывал рассматривать отличия, которые можно понять и измерить.
Отличие слабого ИИ или существующих интеллектуальных программ от человеческого интеллекта достаточно простое – они настроены на решение какого-то узкого класса задач, в то время как человеческий интеллект способен решать широкий круг вопросов. В рамках специализированных предметных областей слабый ИИ – мощнейший интеллект, с которым сложно совладать. Но шахматную программу мы не можем назвать «искусственным интеллектом» не потому, что она не обладает сознанием, и не потому, что она плохо играет в шахматы: она просто ничего другого не умеет. Слабый интеллект правильно называть «узким» интеллектом, и противопоставлять не сильному человекоподобному интеллекту, а общему ИИ, который способен решать самые разнообразные задачи.
Заучивание символов и распознавание образов
Одной из реализаций традиционного подхода к созданию «умной» системы имеет проект cyc. Если перед ИИ поставить задачу сделать так, чтобы у человека не болела голова, волне логичным для нее решением будет эту голову отрубить; если мы идем в русле экспертных систем и вручную составляем базу знаний, мы должны учесть все подобные нюансы, иначе система будет выдавать такие абсурдные решения. В этом и заключается основная идея проекта cyc: собрать очень большую базу здравого смысла, то есть ответов на вопросы, которые бы дал человек в том или ином предметном контексте. База включает миллионы подобных ответов, но это именно тот тупик, в который можно попасть, идя традиционным символьным путем. Записанные символы обозначают высокоуровневые понятия и не «заземлены» в собственном опыте обладателя интеллекта, к тому же система не может самостоятельно приобретать новые, и если создать ИИ на этой базе знаний, получается то, что Джон Серль назвал бы «китайской комнатой».
Идея о том, что основой интеллекта является распознавание образов, далеко не нова – она активно высказывалась в 70-е, и этот подход используется в создании нейронных сетей. Нейронная сеть – это компьютерная программа, которой на вход подается последовательность, к примеру, изображений. Она находит повторяющиеся паттерны и формирует на их основе концепты низких уровней, потом, в активации концептов низкого уровня, формирует концепты следующего уровня и так далее.
Когда появится общий ИИ
Я не хочу делать прогнозов; в разговоре о появлении общего искусственного интеллекта часто приводят расчеты кривых технологической сингулярности, и наверное, это одно из немногих реальных оснований для прогнозирования сроков. Еще есть оценки мощности человеческого мозга и расчет сроков, когда мы достигнем этих мощностей в вычислительной технике. Эти оценки пересекаются к 2030-2050 годам, однако трудно сказать с большой уверенностью, что общий ИИ действительно будет создан к этому времени. Тем не менее, я думаю, что из этих оценок стоит исходить в своей деятельности.
Александр Пушкаш,
Редакция новостного портала Университета ИТМО