Приветствую Вас Гость
Понедельник
29.04.2024
03:25

Космопорт "Nefelana"

Форма входа
Логин:
Пароль:
Поиск
Календарь
«  Март 2023  »
ПнВтСрЧтПтСбВс
  12345
6789101112
13141516171819
20212223242526
2728293031
Архив записей
Наш опрос
Оцените мой сайт
1. Отлично
2. Хорошо
3. Неплохо
4. Ужасно
5. Плохо
Всего ответов: 543
Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz
  • Статистика

    Онлайн всего: 1
    Гостей: 1
    Пользователей: 0
    Главная » 2023 » Март » 30 » Илон Маск, Возняк и 1000 экспертов призвали правительства приостановить обучение ИИ и начать его международное обсуждение.
    Илон Маск, Возняк и 1000 экспертов призвали правительства приостановить обучение ИИ и начать его международное обсуждение.
    21:18



    После того, как в Microsoft сообщили что ИИ GPT-4 стал "умнее" людей (достиг сингулярности), миллиардер и первоначальный инвестор OpenAI Илон Маск, соучредитель Apple Стив Возняк и более чем 1 000 экспертов по ИИ подписали открытое письмо, в котором призвали сделать паузу в разработке мощных систем искусственного интеллекта, чтобы дать время убедиться в их безопасности.




    В письме под названием «Приостановить проведение масштабных экспериментов с ИИ». говорится: «Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять глубокую опасность для общества и человечества. Мощные системы ИИ должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски - управляемыми. Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».

    Они призвали правительства вмешаться и наложить мораторий, если компании не смогут договориться. Эти шесть месяцев должны быть использованы для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение большей безопасности, точности, "надежности и лояльности" систем ИИ.
     
     Канадский пионер ИИ Йошуа Бенгио, также подписавший письмо, заявил, что общество не готово к этому мощному инструменту и его возможному неправильному использованию: «Давайте притормозим. Давайте убедимся, что мы разработали более надежные ограждения". Он призвал к тщательному международному обсуждению ИИ и его последствий, "как мы это сделали в отношении ядерной энергии и ядерного оружия».
     
    На самом деле это проблема гораздо более опаснее, чем ядерное оружие, поскольку последнее, в отличие от ИИ, находится под жестким международным контролем. Поэтому письмо экспертов несколько запоздалое, но оно, действительно, способно повлиять на постановку хотя бы временного заслона внедрению ИИ в жизнь людей.

    Телеграм-канал «Пробуждение сейчас! (https://t.me/GenWake)»

    Просмотров: 38 | Добавил: Nefelana |
    Добавлять комментарии могут только зарегистрированные пользователи.
    [ Регистрация | Вход ]