Фото: CC0 Общественное достояние

Версии умерших близких, созданные ИИ, могут представлять серьезную опасность для психического здоровья

Все мы переживаем потери и горе. Однако представьте, что вам не нужно прощаться со своими близкими, что вы можете воссоздать их виртуально, чтобы вести беседы и узнавать, что они чувствуют.
На сороковой день рождения Ким Кардашьян, муж Канье Уэст, подарил ей голограмму ее покойного отца Роберта Кардашьяна. По сообщениям, Ким Кардашьян с недоверием и радостью отреагировала на виртуальное появление своего отца на ее вечеринке по случаю дня рождения. Возможность увидеть давно умершего, по которому так скучали, любимого человека, снова двигаться и разговаривать может принести утешение тем, кто остался позади.
В конце концов, воскрешение умершего любимого человека может показаться чудом и, возможно, более чем немного жутким, но как это влияет на наше здоровье? Призраки с искусственным интеллектом помогают или мешают процессу скорби?
Воскрешение мертвых людей в виде аватаров потенциально может причинить больше вреда, чем пользы, увековечивая еще большее замешательство, стресс, депрессию, паранойю и, в некоторых случаях, психоз.
Последние разработки в области искусственного интеллекта (ИИ) привели к созданию ChatGPT и других чат-ботов, которые позволяют пользователям вести сложные человеческие беседы.
Используя технологию глубокой подделки, программное обеспечение с искусственным интеллектом может создавать интерактивное виртуальное представление умершего человека, используя его цифровой контент, такой как фотографии, электронные письма и видео.
Всего несколько лет назад некоторые из этих творений были всего лишь сюжетами научно-фантастических фантазий, но теперь они стали научной реальностью.
Цифровые привидения могут быть утешением для скорбящих, помогая им восстановить связь с потерянными близкими. Они могли бы предоставить пользователю возможность сказать что-то или задать вопросы, на которые у него никогда не было возможности ответить, когда ныне покойный человек был жив.
Но сверхъестественное сходство ботов-привидений с потерянным любимым человеком может быть не таким положительным, как кажется. Исследования показывают, что ботов-смертников следует использовать только как временную помощь в трауре, чтобы избежать потенциально вредной эмоциональной зависимости от технологии.
Призраки с искусственным интеллектом могут наносить вред психическому здоровью людей, вмешиваясь в процесс скорби.
Горе требует времени, и есть много различных стадий, которые могут проходить в течение многих лет. Недавно пережив утрату, те, кто испытывает горе, могут часто думать о своем умершем любимом человеке. Они могут по-новому вспомнить старые воспоминания, и довольно часто скорбящий человек видит сны более интенсивно о своем потерянном любимом человеке.
Психоаналитик Зигмунд Фрейд интересовался тем, как люди реагируют на переживание потери. Он указал на потенциальные дополнительные трудности для тех, кто скорбит, если смерть сопровождается негативом.
Например, если были двойственные чувства к кому-то, и он умер, у человека могло остаться чувство вины. Или, если человек умер при ужасных обстоятельствах, таких как убийство, скорбящему может быть труднее принять это.
Фрейд называл это «меланхолией», но это также можно назвать «сложным горем». В некоторых крайних случаях человек может испытывать видения и галлюцинации, что он видит умершего человека и начинает верить, что тот жив. Роботы-привидения с искусственным интеллектом могут еще больше травмировать человека, переживающего сложное горе, и могут усугубить связанные с этим проблемы, такие как галлюцинации.

Также существует риск того, что эти боты-призраки могут говорить вредные вещи или давать плохие советы кому-то в трауре. Подобное генеративное программное обеспечение, такое как чат-боты ChatGPT, уже широко критикуется за предоставление пользователям дезинформации.
Представьте, что технология искусственного интеллекта вышла из строя и начала делать неуместные замечания в адрес пользователя ситуация, с которой столкнулся журналист Кевин Руз в 2023 году, когда чат-бот Bing попытался заставить его уйти от жены. Было бы очень обидно, если бы сын или дочь вызвали умершего отца в качестве призрака с искусственным интеллектом, чтобы услышать комментарии о том, что они не были любимыми или не нравились отцу.
Или, в более экстремальном сценарии, если бот-призрак предложит пользователю присоединиться к ним в смерти или они должны убить или причинить кому-то вред. Это может звучать как сюжет из фильма ужасов, но это не так уж притянуто за уши. В 2023 году Лейбористская партия Великобритании разработала закон, предотвращающий обучение искусственного интеллекта подстрекательству к насилию.

В настоящее время создатели ChatGPT признают, что программное обеспечение допускает ошибки и все еще не является полностью надежным, поскольку оно фабрикует информацию. Кто знает, как будут интерпретироваться тексты, электронные письма или видео человека и какой контент будет генерироваться с помощью этой технологии искусственного интеллекта?
В любом случае, похоже, что независимо от того, насколько далеко продвинется эта технология, потребуется значительный надзор со стороны человека.

Эта новейшая технология многое говорит о нашей цифровой культуре безграничных возможностей.
Данные могут храниться в облаке неограниченное время, все можно восстановить, и на самом деле ничего не удалено или уничтожено. Забвение важный элемент здорового горя, но для того, чтобы забыть, людям нужно будет найти новые и значимые способы вспомнить умершего человека.
Годовщины играют ключевую роль в том, чтобы помочь тем, кто скорбит, не только вспомнить об утраченных близких, но и дают возможность представить потерю по-новому. Ритуалы и символы могут отмечать конец чего-то, что может позволить людям должным образом запомнить, чтобы должным образом забыть.

Работа опубликована в The Conversation.

Поделиться:

Подписывайтесь на краткие, но содержательные новости со всего мира
глазами молодого поколения в Телеграм и ВКонтакте.

Почитайте также

Системы искусственного интеллекта уже умеют обманывать и манипулировать людьми

162 Многие системы искусственного интеллекта (ИИ) уже научились обманывать людей, даже системы, которые были обучены быть полезными и честными. В обзорной статье, опубликованной …