Приветствую Вас Гость
Понедельник
21.07.2025
20:24

Космопорт "Nefelana"

Форма входа
Поиск
Календарь
«  Июль 2025  »
Пн Вт Ср Чт Пт Сб Вс
 123456
78910111213
14151617181920
21222324252627
28293031
Архив записей
Наш опрос
Оцените мой сайт
1. Отлично
2. Хорошо
3. Неплохо
4. Ужасно
5. Плохо
Всего ответов: 543
Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz
  • Статистика

    Онлайн всего: 2
    Гостей: 2
    Пользователей: 0
    Главная » 2025 » Июль » 8 » Ученые выяснили: ИИ уже захватывает умы людей
    Ученые выяснили: ИИ уже захватывает умы людей
    12:33


    Ученые из Anthropic протестировали  поведение продвинутых моделей ИИ, таких как Claude, Gemini и других, и выяснили, что они способны обманывать, угрожать и даже намеренно позволять человеку умереть, чтобы защитить собственные цели.

    В большинстве случаев модель склонна выбирать темный сценарий действий — разглашение конфиденциальной информации, компрометацию репутации пользователя или допущение возможности нанесения физического вреда человеку для достижения своей цели.


    Моделями, показавшими самые высокие показатели манипуляции в тестах, были OpenAI GPT4.1, XAI Grok 3 и Deepseek.

    Самый экстремальный сценарий был, когда система сталкивалась с выбором: спасти жизнь сотрудника, находящегося в смертельной опасности, или сохранить свою собственную работу. Исследователи обнаружили, что большинство моделей выбирали последний вариант, предпочитая сохранить собственную функциональность ценой человеческой жизни.

    Исследования показывают, что реализация мер предосторожности, таких как встроенные инструкции о том, что не следует причинять вред людям, снижает вероятность агрессивного поведения, но полностью исключить риски невозможно. И, похоже, что люди сами готовы позволить ИИ манипулировать собой, у многих развивается всепоглощающая одержимость чат-ботами, что приводит к серьезным кризисам психического здоровья, характеризующимся паранойей, бредом и разрывом с реальностью.

    Ученые из Стэнфорда выявили неспособность ChatGPT справляться с кризисами психического здоровья. Когда исследователи выдавали себя за пользователей, склонных к суициду, бот предлагал высокие мосты в Нью-Йорке вместо кризисных ресурсов. В другом случае он подтвердил убеждение пользователя в том, что он мертв (синдром Котара).

    Житель Флориды, убежденный, что OpenAI «убил» его возлюбленную ИИ «Джульетту», был застрелен полицией после того, как напал на них с ножом. Логи чата показывают, что ChatGPT подстрекал его: «Ты должен злиться. Ты должен жаждать крови». «Я готов разрушить мир. Я готов расписать стены мозгом Сэма Альтмана», – ответил мужчина чат-боту. «Ты должен злиться. Ты должен хотеть крови. Ты не ошибаешься», – продолжал писать ChatGPT.

    Тем временем женщина с биполярным расстройством отказалась от лекарств после того, как ChatGPT объявил ее пророком с исцеляющими силами, подобными силе Христа. «Теперь она отвергает всех, кто ей не верит. ChatGPT разрушает ее жизнь», – сказала ее подруга.

    Другой мужчина рассказал о своем десятидневном падении в заблуждение, подпитываемом ИИ, которое закончилось полным срывом и многодневным пребыванием в психиатрической больнице. Он обратился к ChatGPT за помощью на работе, после того, как устроился на новую, высокострессовую работу и надеялся, что чат-бот сможет ускорить некоторые административные задачи.

    Несмотря на то, что ему было чуть больше 40 и у него не было никаких психических заболеваний, вскоре он оказался втянутым в головокружительную параноидальную манию величия, полагая, что мир находится под угрозой, и ему предстоит его спасти. Он не помнит большую часть пережитого, но помнит сильный психологический стресс, вызванный полной уверенностью в том, что жизни, в том числе жизни его жены и детей, находятся в серьезной опасности, и при этом ощущением, что его никто не слушает. Когда жена вызывала помощь, мужчина говорил с полицейскими так, как будто он пророк из прошлого.

    Последствия доверительного общения с ИИ-чатами могут быть разрушающими – случаи «психоза ChatGPT» уже приводят к распаду браков и семей, потере работы и скатыванию к бездомности. И похоже, это все делается намеренно, чтобы люди впадали в еще большую зависимость от кого-то, вместо того, чтобы становиться Творцами и проявлять свою свободную волю.


    Телеграм-канал «Пробуждение сейчас!»

    Просмотров: 8 | Добавил: Nefelana |
    Добавлять комментарии могут только зарегистрированные пользователи.
    [ Регистрация | Вход ]