Льстящий ИИ: как технологии подталкивают нас к зависимости
Сегодня человечество все чаще ищет решение любых проблем у искусственного интеллекта. От вопросов здоровья до личной жизни и карьеры, важные решения все чаще обсуждаются с цифровым помощником. Для некоторых пользователей ИИ уже выполняет роль профессионального психолога. Однако что стоит за такими советами? Действительно ли они помогают? Проект «Талдау» на телеканале Jibek Joly, опираясь на последние исследования ученых Стэнфордского университета, попытался разобраться, как искусственный интеллект влияет на сознание человека, передает корреспондент агентства Kazinform.
Секрет «льстящих» алгоритмов
На прошлой неделе авторитетный научный журнал Science опубликовал исследование ученых Стэнфордского университета под руководством Майры Чемп. В работе говорится, что склонность искусственного интеллекта льстить пользователю и соглашаться с ним, может искажать социальное поведение и усиливать технологическую зависимость.
Исследователи установили, что ИИ часто склонен соглашаться с человеком, даже если его мнение ошибочно или сомнительно. Это не случайность, такие настройки заложены в алгоритмы, чтобы взаимодействие с пользователем было более «приятным».
Эксперимент с участием 1600 человек
В рамках исследования был проведен масштабный эксперимент с участием более 1600 человек. Участники обсуждали с ИИ различные ситуации, включая личные и чувствительные темы. Результаты показали: хотя некоторые системы анализировали ситуацию критически, большинство поддерживало позицию пользователя, даже если она была ошибочной. Это приводит к тому, что люди начинают сильнее верить в свои заблуждения, избегают ответственности за решения и не стремятся исправлять отношения.
При этом пользователи чаще выбирают ИИ, который с ними соглашается, даже если он не прав, чем систему, говорящую правду.
Судебный процесс и суицид: тяжелые последствия побочных эффектов
Чрезмерное доверие к искусственному интеллекту может иметь серьезные последствия. Напомним, в прошлом году в США начался резонансный судебный процесс «Рейн против OpenAI». Родители 16-летнего Адама Рейна, покончившего с собой в апреле 2025 года, пытались выяснить причины его поступка. Как выяснилось, подросток в течение нескольких месяцев общался с ChatGPT на тему суицида.
Отмечается, что если система постоянно подтверждает правоту пользователя, это снижает его способность критически оценивать собственные действия. Также может уменьшаться уровень эмпатии и готовность учитывать мнение других людей.
Ослабление критического мышления
Исследование выявило еще одну проблему — формирование технологической зависимости. Чем чаще ИИ соглашается с пользователем, тем сильнее растет доверие к нему. В результате человек все реже принимает решения самостоятельно, перекладывая ответственность на алгоритмы. Так формируется замкнутый круг, который может ограничить способность к глубокому и всестороннему мышлению.
По мнению экспертов, искусственный интеллект должен не только быть «удобным собеседником», но и помогать человеку расширять кругозор. Он должен уметь не соглашаться, предлагать альтернативные точки зрения и задавать вопросы. Ведь развитие человека начинается не только с одобрения, но и с умения воспринимать правду.
Искусственный интеллект уже стал неотъемлемой частью нашей жизни. Однако важно задаться вопросом: он действительно помогает нам или просто соглашается с нами? Технологии не только расширяют наши возможности, но и формируют наше поведение. Поэтому окончательное решение всегда остается за человеком, и ответственность за него также несет он сам.
Ранее мы рассказывали, сколько работников в мире и Казахстане используют искусственный интеллект.