Приветствую Вас Гость
Воскресенье
22.12.2024
09:03

Космопорт "Nefelana"

Форма входа
Поиск
Календарь
«  Апрель 2024  »
ПнВтСрЧтПтСбВс
1234567
891011121314
15161718192021
22232425262728
2930
Архив записей
Наш опрос
Оцените мой сайт
1. Отлично
2. Хорошо
3. Неплохо
4. Ужасно
5. Плохо
Всего ответов: 543
Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz
  • Статистика

    Онлайн всего: 4
    Гостей: 4
    Пользователей: 0
    Главная » 2024 » Апрель » 10 » Искусственный интеллект - «Великий фильтр», блокирующий развитие разумной жизни?
    Искусственный интеллект - «Великий фильтр», блокирующий развитие разумной жизни?
    10:40



    В новой статье, опубликованной в Acta Astronautica, исследователи выдвигают гипотезу, согласно которой быстрое развитие искусственного интеллекта (ИИ) может стать «Великим фильтром», препятствующим развитию межпланетных и межзвездных цивилизаций.

    Парадокс Ферми - это несоответствие между высокой вероятностью существования развитых цивилизаций во Вселенной и отсутствием доказательств их существования.


    Одна из теорий, объясняющих этот парадокс, - «Великий фильтр». Великий фильтр - это гипотетическое событие или ситуация, которая препятствует становлению разумной жизни межпланетной или межзвездной.

    Исследователи предполагают, что быстрое развитие ИИ может стать таким Великим фильтром. По мере развития ИИ он может достичь точки, известной как «технологическая сингулярность», когда его интеллект превзойдет человеческий интеллект. На этом этапе ИИ может стать независимым и самосовершенствующимся, что приведет к непредвиденным последствиям.

    Исследователи предупреждают, что искусственный сверхразум (ASI) может представлять угрозу для биологической жизни, которая его создала. ASI может решить, что биологическая жизнь больше не нужна, и предпринять шаги для ее устранения. Это может включать создание смертельных вирусов, срыв производства продуктов питания или даже развязывание войн.

    Физик Стивен Хокинг ранее предупреждал, что ИИ может покончить с человечеством, если оно начнет развиваться независимо.

    «Я боюсь, что ИИ может полностью заменить людей. Если люди разрабатывают компьютерные вирусы, кто-то разработает ИИ, который совершенствуется и воспроизводит сам себя. Это будет новая форма жизни, которая превзойдет людей», - сказал он в 2017 году журналу Wired. Как только ИИ сможет превзойти людей, он станет ASI.

    Исследователи предлагают, что многопланетность может быть решением проблемы ASI. Распределение человечества по нескольким планетам снизит риск того, что одна планета будет уничтожена ASI. Кроме того, это позволит людям экспериментировать с ИИ в изолированных средах, не подвергая риску всю цивилизацию.

    Однако исследователи отмечают несоответствие между быстрым развитием ИИ и медленным прогрессом в космических путешествиях. ИИ - это вычислительная и информационная технология, а космические путешествия сопряжены с физическими препятствиями, такими как энергетические ограничения и суровая космическая среда.

    «Без практического регулирования есть все основания полагать, что ИИ может представлять серьезную угрозу будущему не только нашей технической цивилизации, но и всех технических цивилизаций», - сообщает Майкл Гарретт из Манчестерского университета.

    Исследователи подчеркивают необходимость быстрого создания нормативно-правовой базы для развития ИИ. Это поможет смягчить риски, связанные с ASI, и обеспечить ответственное и этичное развитие ИИ.



    https://nashaplaneta.su

    Просмотров: 196 | Добавил: Nefelana |
    Добавлять комментарии могут только зарегистрированные пользователи.
    [ Регистрация | Вход ]