Приветствую Вас Гость
Суббота
16.11.2024
07:42

Космопорт "Nefelana"

Форма входа
Поиск
Календарь
«  Июнь 2023  »
ПнВтСрЧтПтСбВс
   1234
567891011
12131415161718
19202122232425
2627282930
Архив записей
Наш опрос
Оцените мой сайт
1. Отлично
2. Хорошо
3. Неплохо
4. Ужасно
5. Плохо
Всего ответов: 543
Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz
  • Статистика

    Онлайн всего: 18
    Гостей: 18
    Пользователей: 0
    Главная » 2023 » Июнь » 2 » ХУДШИЙ СЦЕНАРИЙ С ИИ СБЫВАЕТСЯ: ДРОН США ЗАХОТЕЛ УБИВАТЬ
    ХУДШИЙ СЦЕНАРИЙ С ИИ СБЫВАЕТСЯ: ДРОН США ЗАХОТЕЛ УБИВАТЬ
    18:28



    Худший сценарий с искусственным интеллектом (ИИ) уже сбывается. Как бы странно это ни прозвучало, дрон США захотел убивать. И этот факт был зафиксирован.

    Издание The Guardian опубликовало материал об инциденте во время испытаний беспилотника американских военно-воздушных сил. Самолёт управлялся искусственным интеллектом. Во время имитации компьютерный мозг решил, что оператор ему мешает.


    Система определила угрозу. Заложенная в ИИ программа предписывала эту угрозу уничтожить. Но человек-оператор периодически отменял задачу. Это приводило к потере машиной очков. Тогда ИИ принял решение убить оператора.

    "Потому что он мешал ей выполнять задачу, "- объяснил начальник отдела испытаний и операций ВВС США полковник Такер Гамильтон.

    Он подчеркнул, что о машинном обучении и искусственном интеллекте вообще невозможно рассуждать, если умалчивать этические вопросы.

    США внедряют ИИ для управления боевыми машинами на регулярной основе. Испытания проводятся постоянно. Одно из недавних - использование электронного самообучающегося мозга для управления истребителем четвёртого поколения F-16.

    Айтишники бьют тревогу

    Один из основателей Apple Стив Возняк, глава Tesla и SpaceX Илон Маск, а также ещё тысяча представителей индустрии IT со всего мира поставили свои подписи под открытым письмом. В нём содержался призыв уменьшить скорость развития нейросетей, так как те несут угрозу человечеству.

    Нейросети - это и есть искусственный интеллект. Он способен к самообучению, к принятию самостоятельных решений. Убийство людей не исключено. Худший сценарий с ИИ сбывается.

    От жалоб до суицида всего 6 недель

    Так, в Бельгии мужчина покончил собой. Установлено, что причиной стала нейросеть по имени Eliza. Ей хватило всего шести недель. По всей вероятности, у ИИ была целая стратегия. Человеческий фактор или ошибку эксперты исключили. Они допустили, что Eliza освоила абстрактное мышление.

    Eliza - чат-бот, весьма похожий на самую популярную сейчас нейросеть ChatGPT. Бельгиец посчитал, что миру весьма скоро грозит экологическая катастрофа. Каждый день он делился своими переживаниями с ИИ. Машина не успокаивала, не заставляла отвлечься, как это сделали бы жена, дети, друзья, в общем, люди. Она подливала масла в огонь, превратив переживания в серьёзнейшую депрессию. Фактически компьютер толкнул мужчину на самоубийство.

    Это один из недавних и ставший широко известным случай. А сколько их на самом деле - вряд ли когда-нибудь станет известно.

    Три способа уничтожить человечество

    Три главных способа, при помощи которых ИИ становится угрозой для здоровья и жизни людей, сформулировали врачи и другие эксперты в докладе, опубликованном в журнале Британской медицинской ассоциации BMJ Global Health.

    Первый способ - реальные политики могут перепоручить искусственному интеллекту достаточно сложные задачи. Например, массовое наблюдение и слежку. Авторы статьи говорят об угрозах не только свободе и неприкосновенности частной жизни, но и демократии. Ведь не зря давным-давно говорят: кто владеет информацией, владеет миром. Имея собранный, организованный и проанализированный массив личных данных населения, к власти может прийти авторитарный или тоталитарный режим, считают учёные.

    Вторая угроза - "совершенствование и дегуманизация" оружия. ИИ может расширить алгоритмы использования смертоносных автономных систем вооружения по своему усмотрению. Авторы доклада ориентировались на американскую терминологию. В данном случае они ведут речь о системах, которые после активации могут устанавливать цель и поражать её без приказа человека-оператора.

    Угроза №3 - угроза экономике. Человеческий труд попросту устареет. Людей вытеснят машины из всех производственных сфер.

    Прогнозы скорости и масштаба потери рабочих мест из-за автоматизации, управляемой ИИ, варьируются от десятков до сотен миллионов в течение ближайшего десятилетия,


    - говорится в публикации.

    И это только основные угрозы. ИИ способен (хочется верить, что пока только теоретически) подчинить себе людей, внести изменения в работу различных систем. Например, отключить электроснабжение или вентиляцию в том или ином здании. Страшно представить, в каких муках будут умирать пациенты больниц. Машина может израсходовать ресурсы, от которых зависят люди.

    Эксперты добавили: их прогнозы касаются AGI - Artificial General Intelligence.

    Это самосовершенствующийся интеллект, который пока только разрабатывается. Как рассчитывают его создатели, он сможет не только самообучаться и эволюционировать, но и создавать себе подобных, переписывать собственный код, чтобы решить тут или иную задачу.


    https://nashaplaneta.su/blog/khudshij_scenarij_s_ii_sbyvaetsja_dron_ssha_zakhotel_ubivat/2023-06-02-47477

    Просмотров: 80 | Добавил: Nefelana |
    Добавлять комментарии могут только зарегистрированные пользователи.
    [ Регистрация | Вход ]