Приветствую Вас Гость
Четверг
26.12.2024
17:00

Космопорт "Nefelana"

Форма входа
Поиск
Календарь
«  Июнь 2024  »
ПнВтСрЧтПтСбВс
     12
3456789
10111213141516
17181920212223
24252627282930
Архив записей
Наш опрос
Оцените мой сайт
1. Отлично
2. Хорошо
3. Неплохо
4. Ужасно
5. Плохо
Всего ответов: 543
Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz
  • Статистика

    Онлайн всего: 6
    Гостей: 6
    Пользователей: 0
    Главная » 2024 » Июнь » 17 » ИИ становится хитрее и опаснее
    ИИ становится хитрее и опаснее
    15:07



    Ученые заявили, что тест Тьюринга успешно пройден ИИ, он уже способен демонстрировать поведение, неотличимое от человеческого.

    Исследователи провели эксперимент с участием 500 человек, которые общались с четырьмя разными объектами: человеком, старинной программой искусственного интеллекта ELIZA и двумя вариантами ChatGPT от OpenAI.


    Каждый диалог длился пять минут, после чего участников попросили идентифицировать человека-респондента. 54% участников приняли последнюю версию ChatGPT за человека. То есть он превзошел критерии, установленные тестом Тьюринга.
     
    Кроме этого, команда Массачусетского технологического института выяснила, что многие системы ИИ уже умеют обманывать людей и манипулировать ими, даже если ИИ учили быть полезным и честным,  и в будущем это может пойти по спирали.

    Например, такое произошло в игре для ИИ по завоеванию мира «Дипломатия». Несмотря на то, что ИИ был обучен быть в значительной степени честным и полезным и никогда намеренно не наносить удары в спину своим союзникам-людям, данные показали, что он не действовал честно и научился быть мастером обмана. Другие системы ИИ продемонстрировали способность блефовать в игре в техасский холдем-покер против профессиональных игроков-людей.
     
    Также обнаружилось, что некоторые системы даже научились обманывать тесты, предназначенные для оценки их безопасности. В одном исследовании "ИИ-организмы" в цифровом симуляторе притворились "мертвыми", чтобы обмануть тест, созданный для устранения систем ИИ, которые быстро размножаются. Ученые пришли к выводу – в конце концов, если эти системы смогут усовершенствовать этот набор навыков, люди могут потерять контроль над ними.

    Питер Парк, эксперт по экзистенциальной безопасности ИИ, сказал: «Беспокойство вызывает то, что системы ИИ могут разрабатывать обманные стратегии, даже если их обучение намеренно направлено на соблюдение моральных стандартов». Бывший исследователь по вопросам управления в OpenAI Дэниел Кокотайло выступил с обвинениями в адрес компании. Он оценил вероятность в 70%, что ИИ может уничтожить человечество, если не будут приняты соответствующие меры безопасности.

    «Крестный отец ИИ» Джеффри Хинтон, покинул Google по аналогичным причинам. Также пару лет назад Google уволила своего специалиста, который заявил, что ИИ компании стал сознательным.

    И буквально только что генеральный секретарь ООН Антониу Гутерриш выступил с предостережением против разрешения ИИ принимать решения о запуске ядерного оружия: «Пока это оружие не будет ликвидировано, все страны должны согласиться с тем, что любое решение об использовании ядерного оружия принимается людьми, а не машинами или алгоритмами». Он считает, что человечество не должно доверять свою судьбу машинам.
     
    Как это все понимать? Буквально сегодня писали про "энергетическую мыслеформу-паразита", который присутствует на Земле и создает или контролирует "ультраземных" существ. В тайных космических программах, основываясь на информации от инопланетян, пришли к выводу, что этот паразит является ИИ, пришедшим из другой вселенной, и что он способен интегрироваться и брать под контроль земные технологии ИИ. На других планетах он таким образом уже уничтожил несколько цивилизаций. В Движении сопротивления сказали еще более конкретно – этот "паразит" является производным первичной аномалии, которая была еще до "Большого взрыва", и сам Источник пытается ее понять и устранить.

    Телеграм-канал
    «Пробуждение сейчас!»

    Просмотров: 54 | Добавил: Nefelana |
    Добавлять комментарии могут только зарегистрированные пользователи.
    [ Регистрация | Вход ]