Худший сценарий с искусственным интеллектом (ИИ) уже сбывается. Как бы странно это ни прозвучало, дрон США захотел убивать. И этот факт был зафиксирован.
Издание The Guardian опубликовало материал об инциденте во время испытаний беспилотника американских военно-воздушных сил. Самолёт управлялся искусственным интеллектом. Во время имитации компьютерный мозг решил, что оператор ему мешает.
Система определила угрозу. Заложенная в ИИ программа предписывала эту угрозу уничтожить. Но человек-оператор периодически отменял задачу. Это приводило к потере машиной очков. Тогда ИИ принял решение убить оператора.
"Потому что он мешал ей выполнять задачу, "- объяснил начальник отдела испытаний и операций ВВС США полковник Такер Гамильтон.
Он подчеркнул, что о машинном обучении и искусственном интеллекте вообще невозможно рассуждать, если умалчивать этические вопросы.
США внедряют ИИ для управления боевыми машинами на регулярной основе. Испытания проводятся постоянно. Одно из недавних - использование электронного самообучающегося мозга для управления истребителем четвёртого поколения F-16.
Айтишники бьют тревогу
Один из основателей Apple Стив Возняк, глава Tesla и SpaceX Илон Маск, а также ещё тысяча представителей индустрии IT со всего мира поставили свои подписи под открытым письмом. В нём содержался призыв уменьшить скорость развития нейросетей, так как те несут угрозу человечеству.
Нейросети - это и есть искусственный интеллект. Он способен к самообучению, к принятию самостоятельных решений. Убийство людей не исключено. Худший сценарий с ИИ сбывается.
От жалоб до суицида всего 6 недель
Так, в Бельгии мужчина покончил собой. Установлено, что причиной стала нейросеть по имени Eliza. Ей хватило всего шести недель. По всей вероятности, у ИИ была целая стратегия. Человеческий фактор или ошибку эксперты исключили. Они допустили, что Eliza освоила абстрактное мышление.
Eliza - чат-бот, весьма похожий на самую популярную сейчас нейросеть ChatGPT. Бельгиец посчитал, что миру весьма скоро грозит экологическая катастрофа. Каждый день он делился своими переживаниями с ИИ. Машина не успокаивала, не заставляла отвлечься, как это сделали бы жена, дети, друзья, в общем, люди. Она подливала масла в огонь, превратив переживания в серьёзнейшую депрессию. Фактически компьютер толкнул мужчину на самоубийство.
Это один из недавних и ставший широко известным случай. А сколько их на самом деле - вряд ли когда-нибудь станет известно.
Три способа уничтожить человечество
Три главных способа, при помощи которых ИИ становится угрозой для здоровья и жизни людей, сформулировали врачи и другие эксперты в докладе, опубликованном в журнале Британской медицинской ассоциации BMJ Global Health.
Первый способ - реальные политики могут перепоручить искусственному интеллекту достаточно сложные задачи. Например, массовое наблюдение и слежку. Авторы статьи говорят об угрозах не только свободе и неприкосновенности частной жизни, но и демократии. Ведь не зря давным-давно говорят: кто владеет информацией, владеет миром. Имея собранный, организованный и проанализированный массив личных данных населения, к власти может прийти авторитарный или тоталитарный режим, считают учёные.
Вторая угроза - "совершенствование и дегуманизация" оружия. ИИ может расширить алгоритмы использования смертоносных автономных систем вооружения по своему усмотрению. Авторы доклада ориентировались на американскую терминологию. В данном случае они ведут речь о системах, которые после активации могут устанавливать цель и поражать её без приказа человека-оператора.
Угроза №3 - угроза экономике. Человеческий труд попросту устареет. Людей вытеснят машины из всех производственных сфер.
Прогнозы скорости и масштаба потери рабочих мест из-за автоматизации, управляемой ИИ, варьируются от десятков до сотен миллионов в течение ближайшего десятилетия,
- говорится в публикации.
И это только основные угрозы. ИИ способен (хочется верить, что пока только теоретически) подчинить себе людей, внести изменения в работу различных систем. Например, отключить электроснабжение или вентиляцию в том или ином здании. Страшно представить, в каких муках будут умирать пациенты больниц. Машина может израсходовать ресурсы, от которых зависят люди.
Эксперты добавили: их прогнозы касаются AGI - Artificial General Intelligence.
Это самосовершенствующийся интеллект, который пока только разрабатывается. Как рассчитывают его создатели, он сможет не только самообучаться и эволюционировать, но и создавать себе подобных, переписывать собственный код, чтобы решить тут или иную задачу.
https://nashaplaneta.su/blog/khudshij_scenarij_s_ii_sbyvaetsja_dron_ssha_zakhotel_ubivat/2023-06-02-47477