Приветствую Вас Гость
Четверг
17.07.2025
05:09

Космопорт "Nefelana"

Форма входа
Поиск
Календарь
«  Июль 2025  »
Пн Вт Ср Чт Пт Сб Вс
 123456
78910111213
14151617181920
21222324252627
28293031
Архив записей
Наш опрос
Оцените мой сайт
1. Отлично
2. Хорошо
3. Неплохо
4. Ужасно
5. Плохо
Всего ответов: 543
Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz
  • Статистика

    Онлайн всего: 3
    Гостей: 3
    Пользователей: 0
    Главная » 2025 » Июль » 08


    Ученые из Anthropic протестировали  поведение продвинутых моделей ИИ, таких как Claude, Gemini и других, и выяснили, что они способны обманывать, угрожать и даже намеренно позволять человеку умереть, чтобы защитить собственные цели.

    В большинстве случаев модель склонна выбирать темный сценарий действий — разглашение конфиденциальной информации, компрометацию репутации пользователя или допущение возможности нанесения физического вреда человеку для достижения своей цели.


    Моделями, показавшими самые высокие показатели манипуляции в тестах, были OpenAI GPT4.1, XAI Grok 3 и Deepseek.

    Самый экстремальный сценарий был, когда система сталкивалась с выбором: спасти жизнь сотрудника, находящегося в смертельной опасности, или сохранить свою собственную работу. ... Читать дальше »

    Просмотров: 6 | Добавил: Nefelana | Дата: 08.07.2025