Что такое технофобия? Что можно отнести к ней?
Технофобия – это внутреннее сопротивление, которое возникает у нас, когда мы думаем, говорим о новой технологии. Оно может принимать разные формы. Это может быть устойчивое предубеждение, негативное отношение к новым технологиям в целом или каким-то конкретным разработкам, а может быть и переживанием тревоги в связи с использованием технологии. По мере развития технологий меняется объект страхов. Когда-то боялись паровых машин, а сегодня, по данным международных исследований, большинство с недоверием относятся к самоуправляемым автомобилям и блокчейну.
Технофобию от других фобий отличает то, что это осознание человеком того, что он не может избежать контакта с новыми технологиями. У нас уже нет выбора: изменение планеты, диджитализация, новые формы общения, роботизация – это все уже не остановить. Человек уже не может разрешить противоречие между собственным пессимизмом в отношении последствий новых технологий и необходимостью пользоваться ими. Это вызывает ощущение потери контроля и поддерживает тревогу перед новыми технологиями. Отсюда у человека с технофобией часто бывает еще одна психологическая особенность: он порицает себя за пользование тем или иным устройством. Здесь можно провести аналогию с чувством, которое иногда возникает у хронических алкоголиков, когда они в очередной раз ругают себя за то, что опять выпили.
Технофобию относят к клиническим психологическим расстройствам?
Пока она не является клиническим расстройством, но в крайних формах может вызывать схожие симптомы, например, дрожь в руках, панические атаки, когда переживания технофобов похожи на ощущения арахнофобов при контакте с пауками. Бывают разные формы технофобии. Например, человек спокойно пользуется лифтом, но не может заставить себя пользоваться цифровым устройством, которое ему подарили. А многих передергивает от мысли о том, что они могут лечь под нож робота-хирурга.
Кто больше всего подвержен технофобии? Здесь играет роль социальный статус или психологические особенности человека?
Есть очевидные социально-демографические факторы. Действительно, технофобия более распространена среди людей пожилого возраста, среди тех, кто не имеет высшего образования, а также среди женщин. Но дело не в интеллектуальных особенностях этих людей, а в коммуникативных стратегиях преодоления трудностей, которые они используют. Например, для женщины важнее внешняя поддержка, чтобы кто-то помог разобраться. А мужчинам зачастую интереснее разобраться в проблеме самостоятельно. Эту черту также называют креативностью пользователя. Ведь есть люди, которые принципиально не сдадут сломавшееся устройство в ремонт, – им хочется попробовать починить его самим, вскрыть, посмотреть, что там внутри.
Уровень технофобии может быть связан с чертами личности, например, с тем, насколько человек уверен в своих силах и насколько он открыт новому. Интерес к новым технологиям, по статистике, больше характерен для интровертов. С меньшей готовностью новые технологии принимают люди, которые любят планировать свою жизнь наперед, у которых очень высокий уровень ответственности во взаимодействии с другими. Важны и культурные факторы, например, насколько представители того или иного общества готовы ждать, потерпеть, чтобы получить результат от новой технологии в будущем? Менее подвержены технофобии индивидуалистические общества, поскольку в них люди легче идут на эксперименты вопреки влиянию общего мнения. Кроме того, обычно в обществах с высокой маскулинностью у людей повышенные ожидания пользы от использования новых технологий, потому что маскулинность – это ориентация на достижения, победу в конкурентной борьбе. Например, такие ценности характерны для США и Китая. Есть также данные, указывающие на то, что страх перед новыми технологиями более характерен для обществ с высоким избеганием неопределенности, где людям комфортнее, если есть заданные правила, инструкции о том, как действовать в той или иной ситуации. А в России избегание неопределенности одно из самых высоких в мире.
В чем причины технофобии?
Дело не только в психологических особенностях отдельных людей. Здесь велика роль мировоззренческой позиции, видения обществом будущего. Так, в 50-60 годы прошлого века на волне происходящих технологических прорывов в обществе жила надежда на то, что развитие технологий решит социальные проблемы. Раньше развитие технологий и науки связывали с социальным оптимизмом: человечество вот-вот переболеет войнами, прорвется в светлое будущее. Этот оптимизм прослеживается в фантастической литературе того времени с космическими операми и яркими образами будущего. Сейчас же отношение к технологиям более сложное, и технооптимизм сочетается с катастрофическим социальным пессимизмом, а социальная фантастика окрашена в фаталистические краски.
Технофобия также связана со страхом потерять самостоятельность, контроль над своими поступками. Об этом говорят результаты сразу нескольких исследований, в том числе наши данные и данные НИУ ВШЭ. Силами Института психологии РАН мы проводили исследование среди молодежи России и Казахстана. Выяснилось, что молодые люди заинтересованы в электромобилях и домашних 3D-принтерах, готовы носить всякие «умные» датчики здоровья, пользоваться персональным помощником на базе искусственного интеллекта и генетической диагностикой, однако они против имплантируемых датчиков, вживляемых микрочипов, даже если они расширяют способности человека. Наиболее негативно воспринимаются различные инвазивные технологии, расширяющие умственные и физические возможности человека, нейроинтерфейсы, а также редактирование генома будущего ребенка. То есть человеку страшно осознавать, что некие технологии будут решать и делать что-то за него, пока он даже об этом не думает.
На принятие тех или иных технологий влияют различные психологические факторы. Оказалось, например, что использовать нейроинтерфейсы и дополненную реальность больше готовы молодые люди, ориентированные на престиж новых технологий, личный успех и получение удовольствия. На готовность использовать технологии умного города, такие как каршеринг, 3D-принтеры, телемедицина, «умные» дома, влияют прежде всего самоидентификация с авторами технологий и готовность идти вопреки нормам, принятым в своей группе. На готовность пользоваться новыми возможностями медицинской диагностики сильнее всего влияет оценка легкости доступа к соответствующим услугам. А готовность воспользоваться генной инженерией определяется прежде всего ориентацией на справедливость: у каждого должно быть право на лучшую жизнь.
Отношение к новой технологии зависит от того, вторгается ли она в вопросы самоидентификации и сферу морали. Именно поэтому биотехнологии воспринимаются болезненнее, чем, скажем, нанотехнологии. Например, генетически модифицированные продукты и тем более редактирование генома заставляют задуматься: кто мы такие, останемся ли мы прежними? Несмотря на то, что 80% россиян против ГМО, только чуть больше 50% вообще могут хотя бы расшифровать аббревиатуру ГМО. При этом нанотехнологии, потенциально не менее опасные, нас не пугают. Более 50% считают их полезными, хотя только 40% понимают, что это такое. Дело здесь в том, что биотехнологии уже вторглись в зону самоопределения: сможем ли мы считать себя людьми? Не утратили ли мы свои культурные ценности и традиции? А нанотехнологиям и цифровым технологиям это еще только предстоит.
Давайте задумаемся над последствиями внедрения умных материалов и создания программируемого мира, когда предметы не просто меняют свойства и активно взаимодействуют с нами, но знают о нас больше, чем мы сами. Когда они могут быть запрограммированы на изменение нашего поведения, мягко подталкивать к отказу от «вредных для общества» привычек. Все это может гораздо сильнее ударить по болевым точкам российского общества, связанным с социальной идентификацией: политической, религиозной, этнической, поколенческой и другой.
Получается, что сейчас мы проходим стадию «шока» при осознании технологических изменений? Мы пока еще разбираемся, что это и как с этим жить?
Да, при оценке последствий внедрения технологий в общество всегда возникает сложность. При этом я говорю именно о социальных последствиях, а не технологических. Например, возьмем автоматизацию. Изначально думали, что она вытеснит простой физический труд. А на деле оказалось, что она «выгоняет» с рынка образованных людей, тех же программистов, бухгалтеров, даже журналистов. Это говорит об отсутствии методологии прогнозирования того, как именно новая технология будет менять социальные взаимодействия. Технологические прогнозы даются легче. Например, очень многое из технологических прорывов XX века мы найдем в книгах Жюль Верна. Я часто выступаю с этой темой на конференциях и показываю фотографию коробки шоколадных конфет начала ХХ века. На ней изображено, как дети будут обучаться в школе будущего. Любопытно, что там предсказан Интернет: показан аппарат, куда загружаются книги, он преобразует эти данные в аналоговый сигнал, и дети слушают информацию из книг через наушники. Остается один шаг до интерфейсов мозг-компьютер. При этом они сидят по одиночке и «по струнке». Таким образом, технические изменения были предугаданы, но не удалось предугадать того, что вместе с мальчиками будут учиться девочки, что форма обучения будет игровой, направленной на общение, горизонтальные связи, взаимодействие друг с другом.
Здесь можно провести аналогию с феноменом, который психологи называют эффектом самопророчества. Когда мы пытаемся спрогнозировать свое поведение и эмоции в будущем, мы делаем это менее точно, чем другие знающие нас люди. Это происходит, потому что мы сосредоточены на мотивах и целях, которые нами сейчас движут, мы не учитываем своего прежнего поведения, событий, которые с нами уже происходили, но которые хорошо помнят другие люди. Значит, для прогноза своего поведения нам нужен кто-то еще, кроме нас самих. Точно так же, когда мы начинаем задумываться о новых технологиях, мы не чувствительны к интересам других социальных групп, которые могли бы нам подсказать, каковы будут последствия использования технологии. Например, участники форсайт-сессий на Всемирном фестивале молодежи и студентов в Сочи в октябре этого года были склонны видеть в искусственном интеллекте инструмент реализации своих целей, их собственного образа будущего. При этом за рамками внимания осталось то, что с искусственным интеллектом будут взаимодействовать и другие люди с другими ценностями, его будут использовать в своих интересах самые разные социальные силы.
Почему так происходит? Почему нам так сложно прислушаться к мнению других?
Причин много. Мы живем в обществе риска, и в нем люди больше озабочены не совместными достижениями, а защитой, безопасностью одних от других. В таком обществе очень трудно развивать культуру диалога, договариваться о совместных решениях. Зато очень легко на основе коллективных страхов сплотить одних людей против других – чужих, незнакомых. Когда мы формулируем последствия того или иного действия, решения, то нацелены на избегание угрозы. А это, в свою очередь, запускает защитные механизмы, усиливается приверженность предшествующим решениям. Наш кругозор суживается. Под влиянием тревоги мы меньше склонны прислушиваться к альтернативным точкам зрения, а ориентируемся на лидеров мнения в своей группе. И так происходит до тех пор, пока человек не осознает в какой-либо новой технологии решение социальной или личной проблемы, пока не поймет, у кого можно получить поддержку и с кем нужно договариваться о правилах.
Можно ли говорить о некоей социально-психологической поляризации, которая постепенно происходит в обществе в связи с технологическим будущим? Одни люди интересуются и принимают технологии, другие же совсем не интересуются новостями в этой области, а просто пользуются технологиями или даже боятся их?
Различия в осведомленности о новых технологиях сами по себе не создают поляризации. Например, исследования показывают, что «цифровой разрыв» между разными поколениями в навыках пользования цифровыми технологиями постепенно преодолевается. Настоящий разрыв происходит по другому основанию: одни используют новые технологии для саморазвития, другие – для того, чтобы меньше думать. И вторых, конечно, больше.
Здесь более глубокая проблема – разрыв между быстрым развитием технологий и способностью людей договариваться об их использовании, доверием к людям. Технологии становятся все менее понятными и требуют все большей готовности пользователей положиться на экспертизу других людей, их советы и подсказки, отчасти и на государство. По данным опросов, проведенных агентством Edelman TRUST, которое занимается исследованием уровня доверия жителей планеты к разным институтам, новым технологиям доверяют 75% жителей 28 стран. Но в 2017 году впервые их данные показали, что в среднем менее 45% доверяют правительству, СМИ, бизнесу, социальным институтам. Таких низких показателей еще не было. То есть именно тогда, когда нам так нужно договориться о правилах использования новых технологий, мы менее всего к этому способны. Сами по себе технологические открытия нам в этом едва ли помогут. Например, на заре Интернета была надежда на то, что его распространение сотрет границы, приведет к расширению кругозора и доверия людей друг к другу. Но все происходит наоборот: мы окружаем себя лишь теми людьми, которые разделяют наши интересы, и не выходим за эти рамки. И если бы только это! В таких однородных виртуальных сообществах люди становятся менее чувствительными к другим точкам зрения, могут быстро радикализироваться.
При этом современная молодежь склонна завышать свою цифровую компетентность, согласно нашим исследованиям, которые мы проводим совместно с Галиной Солдатовой, руководителем Фонда Развития Интернет. Парадокс в том, что человек, овладев новыми цифровыми инструментами, не всегда готов развиваться дальше: ему проще окружить себя знакомыми программами и устройствами. Становится все более сложно преодолеть разрыв между людьми, которые сталкиваются с проблемами при использовании технологий, и теми, кто мог бы им помочь решить эти проблемы.
Знаете, чем технофобы отличаются от технофилов? Тем, что они менее готовы обсуждать с другими людьми возникающие у них проблемы при использовании новых технологий, не говоря уже о троллинге и защите личных данных. Для принятия новых технологий необходима вовлеченность в коммуникацию с другими пользователями, в ходе которой разрешаются проблемы, происходит обмен опытом, люди договариваются, что нормально, а что нет. Именно поэтому чем больше развиваются цифровые технологии, тем больше востребованы социальные навыки, эмоциональный интеллект.
Есть ли способы преодолеть этот социальный разрыв в обществе, не допустить его увеличения?
Мы должны преодолеть техно-гуманитарный дисбаланс. Сейчас при внедрении технологий основное внимание уделяется техническим составляющим, но необходимо развивать коммуникационные стратегии внедрения технологий. Благодаря им общество сможет договориться о правилах «прописки» новых технологий в наших городах. Это следует из теории «одомашнивания» новых технологий, даже опасных. Например, когда-то появился автомобиль, и это было опасное транспортное средство. Но благодаря переговорам производителей, заинтересованных групп, то есть пешеходов, автолюбителей, государства, появились правила дорожного движения. Или другой пример: первые велосипеды создавались для мужчин. Однако интерес со стороны женщин и подростков привел к изменению конструкции велосипедов. То же самое должно произойти и сегодня: необходимо создавать как можно больше коммуникативных площадок для обсуждения правил игры на рынках нейроинтерфейсов, умных материалов, биотехнологий, блокчейна и так далее. Только через совместное обсуждение разных позиций по поводу новых технологий, поиски приемлемых для всех моделей их использования мы сможем прогнозировать последствия их внедрения.
А как отдельному человеку преодолевать технофобию уже сейчас? Что следует делать разработчикам, чтобы вызывать у людей меньше страхов от технологий?
Во-первых, важно начать подавать новые технологии не как диковинку или национальную гордость, как это делается сейчас, а как средство, которое поможет человеку решить его конкретные проблемы, сделает его жизнь лучше. При этом знание, как именно работает технология, решающего значения здесь не имеет. Ведь знание устройства компьютера само по себе не сильно увеличивает готовность человека им пользоваться. Данные наших исследований говорят о том, что для пользователя важно понимать, в чем польза технологии, насколько она престижна или легитимна, приемлема в его кругу общения, насколько легко ею овладеть, можно ли доверять ее разработчикам и продавцам. Во-вторых, у рискованных технологий должны быть системы защиты от ошибки, чтобы человек был уверен, что он не навредит, используя их. Например, некоторые врачи боятся использоваться роботов-хирургов не потому, что они сомневаются в самом устройстве, а в том, что они могут случайно нажать неправильную кнопку, не туда повернуть джойстик и так далее. Исследования, которые проводит мой коллега по Институту психологии РАН Александр Обознов, показывают, что доверие к технике включает в себя доверие оператора к своим собственным навыкам. В-третьих, интерфейс технологии должен оставлять человеку некое право выбора, адаптации «под себя». В перспективе нужно сделать так, чтобы сам интерфейс «умного» устройства обеспечивал настройку на уровень опыта и психологические особенности человека. Например, одному важнее пережить позитивные эмоции, другому – убедиться, что ему будет легко получить помощь эксперта, если что-то пойдет не так. Интерфейс может подталкивать нас быть более внимательными к последствиям использования программы или устройства.
Необходимо и научиться осознавать «светлые» и «темные» стороны технологий…
Да, вы правы! Любая технология содержит и риски, и возможности. Вот взять те же мессенджеры, социальные сети. С одной стороны, они держат человека в состоянии постоянного стресса: решение необходимо принимать здесь и сейчас, нет времени на обдумывание. Однако эти же технологии расширяют наши возможности связаться с большим количеством людей. Сейчас человеку важно уметь дополнять себя новыми возможностями и подходить к этому осознанно. Например, какой-нибудь гик может постоянно пользоваться интеллектуальными помощниками, датчиками и трекерами, но, если он просто следует подсказкам своего смартфона или искусственного интеллекта, это не значит, что он умело пользуется новыми технологиями. Ведь он использует новые возможности без осмысления. Получается, развитие технологий усиливает контраст между теми, кто готов критически осмыслять происходящее и использовать технологии для диалога с другими, с самим собой, для рефлексии, создания нового, и теми, кто плывет по течению. И эту проблему также должны решить гуманитарные технологии: как сделать так, чтобы человек при взаимодействии с новым устройством не замыкался бы в автоматизированном режиме, а мог рефлексировать, оценивать риски, пользу от технологии? Например, как было со звукозаписью и кино? Сначала это была игрушка, потом инструмент решения социальных задач, а потом эта технология превратилась в искусство, которая помогает нам понять друг друга. В конечном счете новые технологии должны не просто решать все более амбициозные задачи человека, они должны превращаться в инструмент диалога между людьми.
Тогда потребуются специалисты новой формации, которые смогут организовать этот общественный диалог и сформировать не только социальные, но и новые юридические, экономические нормы?
Конечно, придется решать и совсем еще неочевидные для нас проблемы. Например, уже скоро в судах появятся первые дела о скрытом психологическом воздействии компаний на поведение потребителя. Такие психологические портреты уже сегодня можно создавать на основе анализа больших данных, по «цифровым следам», которые мы оставляем повсюду, пользуясь умными устройствами. Пора договариваться не о том, кто может получить к этим данным доступ, а о том, по каким правилам их использовать. Или обществу придется договариваться, можно ли считать брак между человеком и роботом действительным? Видимо, придется разрабатывать юридическую базу для так называемых «трансгуманистических технологий».
Например, когда человека с внедренными в него протезами, искусственными органами и микрочипами уже нельзя считать человеком, а скорее киборгом?
Развитие технологий сопряжено с реальными рисками. Многие из них пока не заметны широкой общественности, но это не отменяет их возможных последствий. Мы пока всерьез не говорим о рисках применения искусственного интеллекта в области вооружений, геоинженерных технологиях, новых видах биологического оружия, возможностях слежения за людьми по цифровым следам в Интернете вещей. И это при том, что технофобии и нерешенные вопросы внедрения новых технологий еще не были всерьез использованы для достижения каких-либо политических целей, для мобилизации общественного мнения. Между тем, ставки в этой игре повышаются: например, целенаправленно усиливая определенные технофобии в социальных сетях, можно «притормозить» конкурентов.
Судьба многих технологий в ближайшие 10-15 лет будет зависеть от того, насколько нам удастся преодолеть социальный пессимизм, недоверие к социальным институтам. А значит, мы будем все больше нуждаться в гуманитарных и социальных технологиях, повышающих способность общества вовремя обнаруживать технологические риски, договариваться о правилах жизни в цифровой экономике. Мы в Институте психологии РАН как раз разрабатываем методологию прогнозирования социальных последствий внедрения новых технологий и будем рады сотрудничеству, в том числе со специалистами Университета ИТМО.