Искусственный интеллект и иллюзия эмпатии
В них разобран феномен, с которым сталкиваются почти все, кто общался с нейросетями, — но мало кто задумывался, что стоит за этим эффектом.
Когда мы обращаемся к искусственному интеллекту — пишем в GPT чат или его аналоги, используем голосового помощника — легко ощутить, что нас понимают. Ответ приходит быстро, в нужном тоне, без раздражения и оценок.
Это воспринимается как поддержка.
Но поддержки там нет.
- ИИ не понимает, не чувствует и не сопереживает.
- Он не разделяет наш опыт и не стремится помочь.
- Все, что он делает, — подбирает наиболее вероятный отклик на основе тех текстов, которые анализировал в процессе обучения.
Авторы статей отмечают: достаточно получить дружелюбную фразу или привычную структуру ответа, чтобы мозг воспринял это как участие. Это не доверчивость и не иллюзия близости — это стандартная особенность восприятия. Мы склонны видеть эмоцию там, где есть хоть намек на знакомые признаки общения.
Поэтому ИИ легко создает ощущение контакта. Особенно когда мы уязвимы, одиноки или эмоционально истощены.
Проблема начинается там, где это ощущение становится привычным способом получать отклик.
Когда проще написать в нейросеть, чем вступить в диалог с человеком.
Когда живое общение — со всеми его паузами, неидеальностью и риском быть не понятым — кажется слишком сложным или обременительным.
ИИ — это инструмент. Инструмент полезный, точный, иногда очень удобный. Но он не в состоянии заменить настоящую связь.
Потому что эмпатия — это не слова и не правильные формулировки обученной нейросети.
Это готовность оставаться рядом в том, что другой переживает, даже если это трудно или неудобно.
На мой взгляд, ИИ может имитировать сочувствие.
Но близость все же требует участия живого человека.
Иллюзия понимания и безоценочного принятия может нас согреть на первых этапах,
но только живой контакт, даже если он «несовершенный» меняет нас по-настоящему.