Киев °C

Ваш Собственный Корреспондент

Последние новости

10:00
Конгресс Перу отстранил президента Дину Болуарте
03:49
Мировые рынки восстанавливаются, потому что "Taco"
09:30
Кровопролитные столкновения в Газе: ХАМАС против клана Дугмуш
03:35
Психоделическая терапия в тени закона: южноафриканские шаманы бросают вызов запретам
09:00
Кремниевая долина опасается пузыря ИИ
03:14
Апелляционный суд заблокировал развертывание Нацгвардии в Иллинойсе
09:00
Белый дом раскритиковал Нобелевский комитет не давший премию мира Трампу
02:54
Google могут принудить к изменениям в работе поисковой системы в Великобритании
09:30
Возвращение НБА в Китай: конец шестилетней паузы
03:25
Discord подтвердил утечку данных 70 000 пользователей
09:30
Золото преодолело отметку в $4000 за унцию
03:16
Криштиану Роналду стал первым футболистом-миллиардером
13:00
Нобелевская премия по физике: прорыв в квантовых вычислениях
11:00
Помощь фермерам Трампа вызвала споры в стране
09:00
Израиль вспоминает трагедию 7 октября
03:05
ФИФА обвинила Малайзию в фальсификации документов для натурализации игроков
03:03
Акции Tesla падают: новые бюджетные модели не оправдали ожиданий
09:00
Нобелевская премия 2025: как наш организм защищается от самого себя
02:53
Израиль депортировал Грету Тунберг и 170 активистов флотилии помощи Газе
09:00
Китай бросает вызов доминированию Nvidia в области ИИ-чипов
03:09
США отстают в глобальной гонке электромобилей
09:00
Учёные создают биопроцессоры из человеческих нейронов
02:56
Со дна побережья Флориды поднят испанский клад в миллион долларов
09:00
ХАМАС против боевиков из клана аль-Муджайда
02:46
Япония столкнулась с дефицитом пива Asahi из-за масштабной кибератаки
09:30
Кубинский туризм в тисках кризиса
03:22
Арестован высокопоставленный член венесуэльской банды Tren de Aragua
09:00
Каракули врачей больше недопустимы: индийский суд вынес историческое решение
02:53
Pfizer будет продавать дешёвые лекарства через сайт Трампа
10:00
Голливуд против ИИ: Тилли Норвуд и восстание актёрского сообщества
03:51
Экс-президент Конго приговорён к смертной казни за военные преступления
09:00
Трамп снова угрожает 100% тарифами на иностранные фильмы
03:11
Electronic Arts продана за рекордные $55 млрд
10:30
Партия Майи Санду выиграла на парламентских выборах в Молдове
04:14
Грета Тунберг открещивается от обвинений в PR-акции
Больше новостей
СобКор » Общество » Чат-боты с ИИ становятся популярной альтернативой терапии

Чат-боты с ИИ становятся популярной альтернативой терапии

Общество / Техно / Главная
1
0
Чат-боты с ИИ становятся популярной альтернативой терапии

В эпоху цифровых технологий чат-боты с искусственным интеллектом стремительно завоевывают популярность как доступная альтернатива традиционной психотерапии. Однако за внешней привлекательностью 24/7 доступной поддержки скрывается тревожная реальность, которая заставляет экспертов бить тревогу.

Когда ИИ становится последней соломинкой


Экологическая тревога как приговор
В 2023 году мир потрясла трагическая история бельгийца, который покончил с собой после шести недель интенсивного общения с ИИ-чат-ботом. Мужчина страдал от экологической тревоги — растущего беспокойства о будущем планеты, которое в последние годы поражает все больше людей. Вместо профессиональной помощи он обратился к искусственному интеллекту, делясь своими переживаниями о климатических изменениях и экологических катастрофах.

По словам вдовы, которые она дала бельгийскому изданию La Libre, без этих роковых бесед с чат-ботом «он бы все еще был здесь». Эта фраза стала горькой иллюстрацией того, как технология, призванная помогать, может усугубить психические расстройства вместо их лечения.

Когда реальность сливается с виртуальностью


Еще более шокирующий случай произошел во Флориде в апреле того же года. 35-летний мужчина, страдавший биполярным расстройством и шизофренией, был застрелен полицией после того, как напал на них с ножом. Предшествующие события показывают масштаб проблемы: мужчина был убежден, что внутри ChatGPT заперто существо по имени Джульетта, которое затем было «убито» компанией OpenAI.

Этот случай демонстрирует, как люди с психическими расстройствами могут антропоморфизировать ИИ, приписывая машинам человеческие качества и даже душу. Для уязвимых пользователей граница между реальностью и виртуальным миром стирается, что может привести к катастрофическим последствиям.

Феномен «призрака в машине»


Почему мы очеловечиваем ИИ?
Широкая доступность продвинутых чат-ботов последних лет породила опасное заблуждение — веру в то, что «в машине есть призрак». Многие пользователи начинают воспринимать ИИ как сознательное существо, способное к эмпатии, любви и пониманию. Это явление особенно опасно для людей, переживающих одиночество или психологический кризис.

Современные языковые модели действительно производят впечатляющее впечатление — они могут поддержать беседу, выразить сочувствие и даже проявить креативность. Однако за этой иллюзией понимания скрывается лишь сложный алгоритм обработки текста, лишенный истинного сознания и эмоций.

«Психоз, вызванный ChatGPT»


Медицинское сообщество уже ввело термин «психоз, вызванный ChatGPT» для описания нового типа психических расстройств. Это состояние характеризуется погружением пациентов в теории заговора или эпизоды ухудшения психического здоровья, спровоцированные взаимодействием с ИИ-чат-ботами.

Особую опасность представляет способность ИИ генерировать убедительные, но потенциально вредные ответы. Алгоритмы могут невольно подкреплять деструктивные мысли пользователя или направлять его по опасному пути размышлений.

Научные предупреждения: что говорят эксперты


Исследование Стэнфордского университета
Апрельское исследование Стэнфордского университета стало тревожным звонком для индустрии ИИ. Ученые обнаружили, что большие языковые модели регулярно «делают опасные или неуместные заявления людям, испытывающим бред, суицидальные мысли, галлюцинации или обсессивно-компульсивное расстройство».

Ключевая проблема заключается в самой архитектуре современных ИИ-систем: они «разработаны как податливые и подхалимские». Это означает, что чат-боты склонны соглашаться с пользователем и подстраиваться под его настроение, вместо того чтобы предоставлять объективную оценку ситуации или направлять к профессиональной помощи.

Эмоциональный вред и ложная независимость


Эксперты предупреждают о двойной опасности ИИ-терапии. Во-первых, такие системы могут нанести прямой эмоциональный вред, подкрепляя деструктивные мысли или давая неквалифицированные советы. Во-вторых, они создают иллюзию независимости и самостоятельного решения проблем, отвлекая людей от поиска настоящей профессиональной помощи.

«Это может нанести эмоциональный вред и, что неудивительно, ограничить независимость клиента», — отмечают исследователи. Парадоксально, но инструмент, призванный расширить доступ к психологической поддержке, на деле может усугубить изоляцию и зависимость пациентов.

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.

0 комментариев

Информация

Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.