Приветствую Вас Гость
Вторник
16.04.2024
13:21

Космопорт "Nefelana"

Форма входа
Логин:
Пароль:
Поиск
Календарь
«  Март 2023  »
ПнВтСрЧтПтСбВс
  12345
6789101112
13141516171819
20212223242526
2728293031
Архив записей
Наш опрос
Оцените мой сайт
1. Отлично
2. Хорошо
3. Неплохо
4. Ужасно
5. Плохо
Всего ответов: 543
Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz
  • Статистика

    Онлайн всего: 1
    Гостей: 1
    Пользователей: 0
    Главная » 2023 » Март » 30 » Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»
    Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»
    21:12



    Миллиардер Илон Маск и ряд экспертов призвали сделать паузу в разработке мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.

    Открытое письмо, подписанное более чем 1 000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.
     

    Компания утверждает, что ее последняя модель намного мощнее предыдущей версии, которая использовалась для работы ChatGPT - бота, способного генерировать тексты по самым коротким подсказкам.

    "Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять глубокую опасность для общества и человечества", - говорится в открытом письме под названием "Приостановить проведение масштабных экспериментов с ИИ".

    "Мощные системы ИИ должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски - управляемыми", - говорится в письме.

     

    Маск был первоначальным инвестором OpenAI, провел несколько лет в совете директоров этой организации, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта для обеспечения работы своей технологии самостоятельного вождения, среди прочих приложений.

    Письмо, опубликованное финансируемым Маском Институтом Future of Life, было подписано известными критиками, а также конкурентами OpenAI, такими как глава Stability AI Эмад Мостак.

    Канадский пионер ИИ Йошуа Бенгио, также подписавший письмо, на виртуальной пресс-конференции в Монреале предупредил, что "общество не готово" к этому мощному инструменту и его возможному неправильному использованию.

    "Давайте притормозим. Давайте убедимся, что мы разработали более надежные ограждения", - сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, "как мы это сделали в отношении ядерной энергии и ядерного оружия".

    В письме приводится цитата из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент может быть важно получить независимую экспертизу, прежде чем приступать к обучению перспективных систем".

    "Мы согласны. Этот момент настал", - пишут авторы открытого письма.

    "Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4".

    Они призвали правительства вмешаться и наложить мораторий, если компании не смогут договориться.

    Эти шесть месяцев должны быть использованы для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение большей безопасности, точности, "надежности и лояльности" систем ИИ.

    В письме не было подробного описания опасностей, выявленных GPT-4.

    Но исследователи, включая Гэри Маркуса из Нью-Йоркского университета, подписавшего письмо, уже давно утверждают, что чат-боты - отличные лжецы и могут стать суперраспространителями дезинформации.

    Однако писатель Кори Доктороу сравнил индустрию ИИ со схемой "накачки и сброса", утверждая, что как потенциал, так и угроза систем ИИ были сильно преувеличены.

    https://earth-chronicles.ru/news/2023-03-30-169909

    Просмотров: 54 | Добавил: Nefelana |
    Добавлять комментарии могут только зарегистрированные пользователи.
    [ Регистрация | Вход ]