Photo rawpixel.com by Freepik

Психология тревоги перед алгоритмами “черного ящика”

От ChatGPT, составляющего электронные письма, до систем искусственного интеллекта, рекомендующих телешоу и даже помогающих диагностировать заболевания, – присутствие машинного интеллекта в повседневной жизни больше не является научной фантастикой.

И все же, несмотря на все обещания скорости, точности и оптимизации, остается ощущение дискомфорта. Некоторым людям нравится использовать инструменты искусственного интеллекта. Другие испытывают тревогу, подозрения и даже чувствуют себя обманутыми. Почему?

Ответ кроется не только в том, как работает искусственный интеллект. Дело в том, как работаем мы. Мы его не понимаем, поэтому и не доверяем ему. Люди скорее доверяют системам, которые они понимают. Традиционные инструменты кажутся знакомыми: вы поворачиваете ключ, и машина заводится. Вы нажимаете кнопку, и приезжает лифт.

Но многие системы искусственного интеллекта работают по принципу “чёрного ящика”: вы что-то вводите, и появляется решение. Логика между этими действиями скрыта.

С психологической точки зрения это нервирует. Нам нравится видеть причину и следствие, и нам нравится иметь возможность подвергать сомнению решения. Когда мы не можем этого сделать, мы чувствуем себя беспомощными.

Это одна из причин так называемого неприятия алгоритмов. Этот термин популяризировали маркетолог Беркли Дитворст и его коллеги, чьи исследования показали, что люди часто предпочитают ошибочные человеческие суждения алгоритмическому принятию решений, особенно после того, как стали свидетелями даже одной алгоритмической ошибки.

С рациональной точки зрения мы понимаем, что у систем искусственного интеллекта нет эмоций или скрытых мотивов. Но это не мешает нам проецировать их на системы искусственного интеллекта. Когда ChatGPT отвечает “слишком вежливо”, некоторым пользователям это кажется зловещим. Когда система рекомендаций становится слишком точной, это воспринимается как навязчивое вмешательство. Мы начинаем подозревать манипуляцию, даже несмотря на то, что у системы нет собственной сущности.

Это форма антропоморфизма – то есть приписывания человекоподобных намерений нечеловеческим системам. Профессора коммуникации Клиффорд Нэсс и Байрон Ривз вместе с другими исследователями продемонстрировали, что мы воспринимаем машины как социальные объекты, даже зная, что они не люди.

Мы терпеть не можем, когда ИИ ошибается

Одно из любопытных открытий поведенческой науки заключается в том, что мы зачастую более снисходительны к человеческим ошибкам, чем к ошибкам машин. Когда человек совершает ошибку, мы это понимаем. Мы можем даже сопереживать. Но когда ошибку совершает алгоритм, особенно если он позиционировался как объективный или основанный на данных, мы чувствуем себя преданными.

Это связано с исследованиями в области нарушения ожиданий, когда наши представления о том, как что-то «должно» работать, не оправдываются. Это вызывает дискомфорт и потерю доверия. Мы верим, что машины логичны и беспристрастны. Поэтому, когда они дают сбой, например, неправильно классифицируют изображение, выдают необъективные результаты или рекомендуют что-то совершенно неподходящее, наша реакция острее. Мы ожидали большего.

В чем ирония? Люди постоянно принимают ошибочные решения. Но, по крайней мере, мы можем спросить их: “Почему?”

Для некоторых искусственный интеллект не просто непривычен, он вызывает экзистенциальное беспокойство. Учителя, писатели, юристы и дизайнеры внезапно сталкиваются с инструментами, которые частично выполняют их работу. Речь идет не только об автоматизации, но и о том, что делает наши навыки ценными и что значит быть человеком.

Это может привести к возникновению угрозы идентичности – концепции, исследованной социальным психологом Клодом Стилом и другими. Она описывает страх перед тем, что компетентность или уникальность человека будут поставлены под сомнение. Каков результат? Сопротивление, защитная реакция или полное неприятие технологии. Недоверие в данном случае – это не ошибка, а механизм психологической защиты.

Потребность в эмоциональных сигналах

Человеческое доверие основано не только на логике. Мы считываем интонации, выражения лица, нерешительность и зрительный контакт. Искусственный интеллект ничего этого не умеет. Он может быть красноречивым, даже обаятельным. Но он не внушает нам такого доверия, как другой человек.

Это похоже на дискомфорт “зловещей долины” – термин, придуманный японским робототехником Масахиро Мори для описания жуткого ощущения, когда что-то напоминает человека, но не совсем. Это выглядит или издает правильные звуки, но что-то кажется неправильным. Это отсутствие эмоций может быть истолковано как холодность или даже обман.

В мире, полном дипфейков и алгоритмических решений, отсутствие эмоционального отклика становится проблемой. Не потому, что ИИ делает что-то не так, а потому, что мы не знаем, как к этому относиться.

Важно отметить, что не все подозрения в отношении ИИ иррациональны.

Было доказано, что алгоритмы отражают и усиливают предвзятость, особенно в таких областях, как подбор персонала, работа полиции и оценка кредитоспособности.

Если вы уже пострадали от систем обработки данных или оказались в невыгодном положении, то вы не параноик, а просто проявляете осторожность.

Это связано с более широкой психологической идеей: выученным недоверием. Когда институты или системы постоянно подводят определенные группы людей, скептицизм становится не только разумным, но и защитным механизмом.

Призыв к людям “доверять системе” редко срабатывает. Доверие нужно заслужить. Это означает разработку прозрачных, поддающихся опросу и подотчетных инструментов искусственного интеллекта. Это означает, что пользователи должны иметь возможность влиять на ситуацию, а не просто пользоваться удобными функциями. С психологической точки зрения, мы доверяем тому, что понимаем, что можем подвергать сомнению и что относится к нам с уважением.

Если мы хотим, чтобы искусственный интеллект был принят, он должен восприниматься не как черный ящик, а как участник диалога, к которому нас приглашают присоединиться.

Эта статья взята для перевода из издания The Conversation и распространяется с бесплатной лицензией Creative Commons. Прочитайте статью в оригинале. Paul Jones,
Подпишитесь на сайт Психолог в интернете
в Telegram или ВКонтакте.

Помощь психолога

Check Also

Страх может передаваться через прикосновения

Новое исследование показало, что люди могут “заразиться” страхом от роботов. Результаты, полученные командой психологов из …

Искусственный интеллект и психоз: что нужно об этом знать

Доктор медицины психиатр Стефан Тейлор лечил пациентов с психозами на протяжении десятилетий. Он проводил исследования, …

Посещая этот сайт, вы соглашаетесь с использованием файлов cookie
Принять
Политика конфиденциальности