Приветствую Вас Гость
Суббота
21.12.2024
19:58

Космопорт "Nefelana"

Форма входа
Поиск
Календарь
«  Октябрь 2024  »
ПнВтСрЧтПтСбВс
 123456
78910111213
14151617181920
21222324252627
28293031
Архив записей
Наш опрос
Оцените мой сайт
1. Отлично
2. Хорошо
3. Неплохо
4. Ужасно
5. Плохо
Всего ответов: 543
Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz
  • Статистика

    Онлайн всего: 9
    Гостей: 9
    Пользователей: 0
    Главная » 2024 » Октябрь » 23 » Искусственный интеллект изменит наш мир
    Искусственный интеллект изменит наш мир
    01:05



    Понятие сингулярности, когда машины станут умнее людей, обсуждается на протяжении десятилетий.

    Однако с развитием алгоритмов машинного обучения и появлением программного обеспечения, способного проходить тест Тьюринга, этот вопрос становится всё более актуальным. Журналисты IFLScience рассуждают о том, насколько близки мы к созданию искусственного общего интеллекта (AGI) и какие риски это может повлечь за собой?



    Современный искусственный интеллект, основанный на больших языковых моделях (LLM), работает не так, как мы привыкли думать. Эти системы не «думают» в человеческом понимании слова. Они просто используют статистику и вероятности, чтобы предсказать, какое слово или буква следуют за предыдущими. Хотя результаты могут быть разумными, они также могут быть ошибочными и даже опасными. Как отмечают эксперты, машина не имеет разума, она лишь имитирует его.

    Существуют предположения, что ИИ-системы будущего уже на подходе. Эти алгоритмы, по мнению некоторых специалистов, смогут выполнять множество задач наравне с людьми. Основатель SingularityNET Бен Гертцель на саммите AGI Summit 2024 заявил, что к 2029-2030 годам мощность отдельного компьютера будет сопоставима с вычислительной мощностью человеческого мозга. Если добавить к этому еще 10-15 лет, то один компьютер сможет обладать мощностью всего человеческого общества.

    Однако такие оптимистичные прогнозы вызывают вопросы. Критики утверждают, что заявления о скором появлении AGI — это всего лишь попытка раскрутить текущие технологии и создать пузырь, который в конечном итоге лопнет. Известный «отец-основатель ИИ» Джеффри Хинтон считает, что до появления AGI осталось менее 20 лет, в то время как его коллега Йошуа Бенжио предостерегает от поспешных выводов.

    Кроме того, необходимо учитывать и потенциальные опасности. Хинтон уволился из Google, выражая опасения по поводу возможных угроз, которые может представлять ИИ. Опрос показал, что треть исследователей ИИ считает, что технологии могут привести к катастрофическим последствиям. Однако сценарий «Терминатора», где машины охотятся на людей, может оказаться не самым вероятным. Опасности могут быть более приземлёнными.

    Современные ИИ уже сталкиваются с обвинениями в использовании украденного искусства для обучения. В этом контексте компания OpenAI обратилась к британскому парламенту с просьбой разрешить использование произведений, защищённых авторским правом, что поднимает вопросы о правомерности их обучения. Кроме того, экологические риски, связанные с высоким потреблением ресурсов и углеродным следом, становятся всё более актуальными в условиях меняющегося климата.

    Злоупотребление ИИ для создания ложных материалов и распространения дезинформации также вызывает серьёзные опасения. Создание поддельных изображений для пропагандистских целей стало проще простого, и хотя существуют методы их распознавания, с каждым годом это будет становиться всё сложнее.

    В условиях отсутствия чётких правил и норм, регулирующих ИИ, важно действовать уже сейчас. Некоторые исследования утверждают, что некачественный контент, созданный ИИ, может привести к созданию ещё более некачественного контента, что в конечном итоге сделает ИИ менее полезным. Возможно, мы ещё не близки к созданию настоящего искусственного интеллекта, но есть риск, что можем оказаться на пути к созданию искусственной глупости.



    Наша Планета

    Просмотров: 34 | Добавил: Nefelana |
    Добавлять комментарии могут только зарегистрированные пользователи.
    [ Регистрация | Вход ]