От электроники — к оптике
Любая технология рано или поздно теряет свою актуальность, и кремниевая электроника — не исключение. Темпы ее развития в последние годы движутся не так бодро, как еще десять лет назад, и все чаще слышны разговоры о том, что закон Мура — эмпирическое наблюдение о том, что количество транзисторов в микросхемах удваивается каждые два года, — почти подошел к своему пределу. Это заметно и на бытовом уровне: процессоры домашних компьютеров перестали наращивать гигагерцы и увеличивают производительность за счет многоядерной архитектуры и параллельных вычислений.
Причина этому кроется в физических ограничениях. Электроны, двигаясь по проводнику, теряют энергию. Этот эффект связан с наличием массы у носителей тока, а по мере увеличения рабочей частоты устройства он только увеличивается. Уменьшение размеров элементов для снижения тепловых потерь тоже имеет ограничения — начинает чувствоваться атомная структура: современный технологический размер 10 нанометров по порядку величины соответствует всего лишь 100 атомам. Другое дело — использовать свет: фотоны являются самой быстрой частицей, обладают нулевой массой покоя и нулевым электрическим зарядом, световые потоки на разных длинах волн не мешают друг другу. Поэтому у манипуляции информационными потоками при помощи оптических технологий много сильных сторон. К примеру, информацию в виде светового луча можно обрабатывать непосредственно во время передачи, причем без существенных энергетических затрат, а за счет работы с волнами разной длины можно добиться высокой степени параллелизации вычислений. Наконец, оптическая система не подвержена воздействию электромагнитных наводок.
Из-за явных преимуществ оптических вычислений перед электронными эта область стала объектом пристального внимания ученых, но оптические вычислительные схемы пока что остаются гибридными — они сочетают в себе оба технологических подхода. Первый рабочий прототип оптоэлектронного компьютера еще в 1990-м году представила компания Bell Labs, а спустя 13 лет Lenslet анонсировала первый коммерческий оптический процессор EnLight256, способный выполнять до 8*1012 операций над 8-битными целыми в секунду (8 тераоп). Однако, несмотря на то, что первые шаги в нужном направлении уже сделаны, в этой области все еще больше вопросов, чем ответов.
«Для некоторых приложений хорошо, что фотоны не замечают друг друга, но любая логика строится на том, что, допустим, произошло событие А, и в зависимости от того, произошло ли другое событие Б, нужно выдать ответ „да“ или „нет“, то есть 1 или 0. Этот ответ должен зависеть от двух условных пучков света, соответствующих A и Б. При манипуляции токами на таком принципе строится транзисторная логика в обычной электронике, а в фотонике подход пока что не работает — использование нелинейных эффектов, когда, например, с помощью мощного потока излучения изменяются характеристики материалов, тем самым влияя на распространение второго пучка, слишком неэффективно с точки зрения энергопотребления, — объясняет старший научный сотрудник кафедры нанофотоники и метаматериалов Университета ИТМО и лаборатории спектроскопии твердого тела ФТИ им. А.Ф. Иоффе Михаил Рыбин. — Коммерчески привлекательных устройств на оптической логике пока что нет, но есть определенные наработки, которые позволяют двигаться в ту или иную сторону. Можно сказать, что текущие исследования составляют исходный материал для мозаики, который накапливается и систематизируется, чтобы потом появилась возможность взглянуть на все это в целом и понять, как выложить найденные элементы и собрать целую картину».
Cкладыванием таких кусочков мозаики занимаются ученые из разных подразделений Университета ИТМО. Некоторые исследования напрямую связаны с оптическими вычислениями — например, в 2015 году физики из лаборатории нанофотоники и метаматериалов экспериментально продемонстрировали возможность создания сверхбыстрого оптического транзистора всего лишь из одной кремниевой наночастицы. Сюда же можно отнести исследования невидимости, топологически защищенных краевых состояний и другие работы.
Фотоны и кубиты
Другая революция, которую ожидают в области вычислений, касается не просто замены электронов фотонами. Невозможные для современной полупроводниковой электроники задачи призван решить квантовый компьютер — он оперирует не классическими битами информации, которые принимают значения «0» и «1», а кубитами, которые могут находиться в суперпозиции, то есть наложении, этих состояний. За счет использования квантовых эффектов от таких компьютеров ожидается значительный прирост в производительности. Первые ограниченные варианты подобных устройств уже собраны в лабораториях — от однокубитных процессоров до 128-кубитного компьютера D-Wave One, принцип работы и эффективность которого вызвали массу споров среди специалистов по квантовой физике.
Однако и здесь полноценно работающими «первыми ласточками» можно назвать только гибридные схемы, которые используют квантовые эффекты для устройств на основе полупроводниковых технологий, а именно — технологии защиты канала связи с помощью квантовой криптографии. Из-за того, что передача ключа шифрования осуществляется с помощью фотонов, злоумышленник не сможет незаметно вмешаться в передачу и перехватить данные — попытка измерить или скопировать фотон неизменно разрушит его. Благодаря принципам построения систем квантовой криптографии принимающая и передающая стороны просто не станут использовать в передаче бит, который в нем зашифрован (подробнее о работе квантовокриптографических систем читайте здесь). Сегодня квантовые сети представляют собой простейшие соединения точка-точка, максимальное расстояние между которыми составляет около 300 км, и исследователи пытаются создавать гибридные решения — объединять разные каналы связи и схемы шифрования.
«На последнем этапе интеграции квантовых технологий должны появиться полноценные квантовые сети, которые не просто позволяют защитить канал квантовым ключом. Будет возможность использовать запросы в базы данных, построенные на квантовых принципах, проводить распределенные квантовые вычисления, в перспективе это означает переход к квантовому интернету», — отмечает представитель Центра научно-технического форсайта Университета ИТМО Кирилл Разгуляев.
Проекты по развитию квантовых технологий в России входят в дорожную карту группы SafeNet Национальной технологической инициативы (НТИ). Для того, чтобы повысить эффективность этой работы, в 2015 году на конференции «Квантовые коммуникации — инфраструктура будущего» участники приняли решение сформировать консорциум, который призван разработать стандарты и протоколы для работы устройств на принципах квантовых коммуникаций и подготовить инфраструктуру для дальнейшего внедрения квантовой информатики. Когда у нас появится первый квантовый компьютер, его будет к чему подключить.
Разум ex machina
Говоря о смене парадигм в области вычислений, нельзя не упомянуть то, что будут считать новые вычислительные сети. Человечество давно грезит созданием рукотворного собрата по разуму, область исследования искусственного интеллекта зародилась в середине прошлого века и изначально воспринималась как достаточно простая и понятная. К примеру, в 1956 году участники Дартмутского семинара в США планировали всего за два месяца «…обучить машины использовать естественные языки, формировать абстракции и концепции, решать задачи, сейчас подвластные только людям».
Сегодня эта сфера рассматривается не настолько поверхностно, в мире появляются даже инициативы по ограничению исследований в области ИИ: в начале 2015 года было составлено коллективное письмо с требованием трезво оценивать риски создания «мыслящей» техники, которое подписали физик-теоретик и популяризатор науки с мировым именем Стивен Хокинг, миллионер Илон Маск, писатель-фантаст Вернор Виндж и другие. Подходы к реализации искусственного интеллекта находят применение в различных задачах — от анализа контента и поиска в интернете до создания устройств, которые уже кажутся нам обыденностью (допустим, парковочные системы, которые устанавливают в автомобили, тоже можно назвать в некотором смысле интеллектуальными). Специалисты Университета ИТМО обращаются к аспектам ИИ для нужд робототехники и развития компьютерных технологий, а также для решения менее тривиальных задач — к примеру, в геологии.
Как считает доцент кафедры вычислительной техники Университета ИТМО Игорь Бессмертный, главная сложность для создателей «сильного» искусственного интеллекта заключается в том, что воссоздать разум невозможно без создания карты интеллектуальных навыков, которыми человек пользуется интуитивно. Сформировать такую карту чрезвычайно сложно, поскольку мы можем даже не догадываться, что эти навыки можно и нужно как-то формализовать. Появление полноценного собрата по разуму откладывается еще и потому, что он нам, по большому счету, не нужен.
«Иногда интеллектуальное поведение устройства необходимо — там, где невозможно находиться человеку-оператору, или в тех случаях, когда это упрощает жизнь. Каждое такое устройство выполняет узкий круг задач: есть роботы-сиделки, роботы-повара… Но создавать гомункула, чтобы просто было с кем поговорить, нерационально и затратно, — комментирует Игорь Бессммертный. — Существует масса фактов поведения человека, которые никак не формализованы. Считается, что половину своих знаний человек усваивает за первые три года жизни, и мы иногда даже не догадываемся, что они есть и что их нужно формализовать. Если я выпущу предмет, который держу в руках, он упадет на пол. Людям это очевидно, а машине — нет. По моим подсчетам, человек должен хранить и уметь использовать в среднем 50 миллионов фактов. Для сравнения: компания Cycorp составляет онтологическую базу знаний с 1984 года, и за это время в ней накопилось всего 3 миллиона фактов. Для работы универсальной интеллектуальной системы нужно как минимум на два порядка больше».
Если же предположить, что произойдет смена парадигм и переход к новым принципам создания электронных устройств, можно ожидать прорыва и в области ИИ. Более мощная техника будет поддерживать более сложные интеллектуальные системы, которые спровоцируют дальнейшую взрывную эволюцию электроники. По оценке профессора кафедры компьютерной фотоники и видеоинформатики Алексея Потапова, технологическая сингулярность — момент, после которого сложность и скорость прогресса станет расти по экспоненте, — может произойти уже к 2030−2050 году.