Век нанотехнологий

Георгий Зограф рассказал о разработках лаборатории гибридной нанофотоники и оптоэлектроники, сотрудником которой он является: про катушки для магнитно-резонансной томографии, которые уменьшают время сканирования в три раза, и про высокоэффективные солнечные батареи. Также он рассказал, что сотрудники лаборатории экспериментируют с проектами на стыке физики, нанофотоники и биологии — например, работают над таргетной доставкой лекарств. Некоторые же из проектов даже напоминают фантазии из фильмов о «Мстителях».

«Например, у нас в университете есть сотрудник (Филипп Комиссаренко), который буквально вручную, нанопинцетиком, умеет перекладывать наночастицы, изменяя структурную сетку. Это, конечно, не на уровне атомов манипуляции (наночастицы в десятки раз больше), но все равно невероятно круто. То есть это не костюм Тони Старка, который может трансформироваться на молекулярном уровне, но что-то близкое к тому», — рассказывает Георгий.

Георгий Зограф. Фото: ITMO.NEWS

Георгий Зограф. Фото: ITMO.NEWS

Одним словом, нанотехнологии уже практически везде, поэтому их нужно рассматривать не как науку, а как инструмент, отметил спикер. По аналогии с каменным, бронзовым, железным веком, нынешний период можно по праву считать веком нанотехнологий.

Если же говорить об уровне развития этих технологий, то можно вспомнить, что уже сейчас существуют даже такие забавные вещи, как, например, чемпионат мира по молекулярным гонкам. В них участвуют простые органические соединения, молекулы размером в 5-10 микрон. Но таких вещей, которые показывают в фильмах, вроде роботов, уменьшенных до нано-размеров, которые будут перемещаться по телу человека и регенерировать поврежденные ткани, — такого нет и, скорее всего, никогда не будет.

Стоит ли бояться дальнейшего развития этих технологий? Вопрос этичности остается открытым. Пока что ими занимаются только последние 20-30 лет, но что будет через 50, 100 лет? Как они повлияют на наш организм в долгосрочной перспективе? Ведь эти мельчайшие частицы и структуры проходят через живые ткани и клетки, они могут накапливаться в организме и негативно сказываться на здоровье.

Также стоит вопрос об использовании таких мощных технологических возможностей — по словам Георгия Зографа, ситуация похожа на то, что произошло после открытия ядерной реакции. С одной стороны, ядерные реакции можно использовать как эффективный источник энергии, а можно и уничтожить целый город. Можно вспомнить ту самую историю с китайским ученым, который смог отредактировать геном человека, ведь в этом тоже, по сути, задействованы нанотехнологии ― такие операции происходят на мельчайшем масштабе. С одной стороны, это огромный прорыв для науки, а с другой — серьезный этический вопрос этики: имеет ли человек право заменять собой природу?

Сможет ли искусственный интеллект поработить человечество

Источник: shutterstock.com
Источник: shutterstock.com

Андрей Фильченков считает, что все страхи перед роботами основаны на банальном непонимании устройства искусственного интеллекта и фобии всего неизвестного.

«Искусственный интеллект — это термин, который никто не умеет определять. Обычно, когда говорят про ИИ, который захватит мир, представляют что-то очень похожее на человека, только искусственное. В реальности до этого очень далеко. Сейчас под ИИ всегда имеется в виду машинное обучение, то есть программа, которая заточена решать конкретные, достаточно узкие, четко поставленные задачи. И они максимально далеки от тех сложных комплексных задач, часто даже сложно формулируемых, которые мы с вами постоянно решаем», — поясняет Андрей.

Одним словом, поработить человечество или его уничтожить сами роботы никогда не захотят, по крайней мере в ближайшей перспективе — если только таким не будет желание их создателей.

Чтобы кого-то поработить, нужна мотивация. Но такие задачи перед роботами не то что не ставятся, человечество максимально далеко от того, чтобы внедрить роботам целеполагание или воспроизвести те механизмы, которые отвечали бы за мотивацию. У нас за мотивацию отвечают гормоны. У роботов нет такого физиологического механизма, и внедрить им гормональное регулирование не только бессмысленно, но и технологически невозможно. Роботы не могут хотеть — это их большая проблема, потому что им нечего хотеть: они могут только понимать команды и достигать цели. Да, цели могут быть очень сложные: сейчас робота можно попросить порекомендовать фильм или пропылесосить дом, чуть позже можно будет попросить его написать за тебя диплом или курсовую.

Андрей Фильченков. Фото: ITMO.NEWS

Андрей Фильченков. Фото: ITMO.NEWS

В качестве примера опасности и потенциальной агрессивности ИИ часто приводят историю с Тэй — ботом от Майкрософт, который за сутки стал расистом и антифеминистом. Но тут надо понимать, что ИИ просто генерировал посты, не понимая, о чем они. У него не было «в голове» никакого образа и понимания. Он просто складывал слова вместе. Недавняя ситуация с чат-ботами Facebook, которые придумали собственный язык для общения, тоже далека от примера их разумности. Это всего лишь ошибка атрибуции: мы пытаемся представить ботов как осмысленных агентов, которые сами принимают решения. На самом деле у них была цель — решить коммуникативные задачи наиболее простым способом, язык, по сути, им был не нужен. Можно сказать, что языка у них и не было, они просто складывали символы друг за другом.

Вообще, человечество придумало огромное количество критериев «разумности» ИИ. Самый первый и известный — это тест Тьюринга, про который все слышали. Его уже много раз критиковали и оспаривали, но самое интересное опровержение — теория китайской комнаты, философский эксперимент Джона Сёрля, который был опубликован еще в 1980 году. Сейчас на замену тесту Тьюринга придумали десятки новых критериев, например, о том, что ИИ должен не только суметь освоить работу кофе-машины, прочитав инструкцию, но и целенаправленно сварить себе кофе. Или он должен быть способен поступить в американский вуз и успешно его закончить.

Главная проблема, что никто на самом деле не знает, что такое сознание, интеллект и как он работает. Эта тема — неисчерпаемый источник тем для кандидатских диссертаций по философии. А тест Тьюринга вроде как прошел чат-бот, притворяющийся одесским мальчиком, но это вызывало много споров и вопросов, так что к одному мнению специалисты так и не пришли.