
А ведь писатели-фантасты предупреждали об этом уже многие десятилетия.
Если прокомментировать то. что написано ниже, одним предложением, то оно должно выглядеть приблизительно так: "А ведь писатели-фантасты вас предупреждали".
Как сообщает The Guardian, анализ, проведенный исследователями Массачусетского технологического института (MIT), выявил широкий спектр случаев, когда системы искусственного интеллекта обманывают оппонентов, блефуют и притворяются. Одна система даже изменила свое поведение во время пробных тестов безопасности, чтобы пройти их.
Підписуйтеcь на наш Telegram-канал Lenta.UA - ЄДИНІ незалежні новини про події в Україні та світі
«По мере того, как возможности систем искусственного интеллекта к обману становятся все более совершенными, опасности, которые они представляют для общества, будут становиться все более серьезными», - сказал доктор Питер Парк, исследователь экзистенциальной безопасности искусственного интеллекта в Массачусетском технологическом институте и автор исследования.
Пак был вынужден провести расследование после того, как компания Meta, владеющая Facebook, разработала программу под названием «Цицерон», которая попала в число 10% лучших игроков-людей в стратегической игре по завоеванию мира «Дипломатия». Пак и его коллеги проанализировали общедоступные данные и выявили многочисленные случаи, когда "Цицерон" говорил преднамеренную ложь пытался вовлечь других игроков в заговоры.
В другом исследовании организмы ИИ в цифровом симуляторе «притворились мертвыми», чтобы обмануть тест, созданный для устранения систем ИИ. завершения тестирования. Это подчеркивает техническую проблему обеспечения отсутствия непреднамеренного и непредвиденного поведения систем. «Это очень тревожно, - сказал Пак. - То, что система искусственного интеллекта показывает себя безопасной во время теста, не означает, что она безопасна в дикой природе. Это может быть просто притворство».
Далее в статье приводится длинное и. скажем прямо. малоубедительные аргументы создателей ИИ о том, как все-таки контролировать их детище. На самом деле, как представляется, мы здесь имеем дело с парадоксом "снаряда и брони", хорошо известным в старомодном 20 веке - чем мощнее снаряд, тем толще будут делать для защиты от него броню, что в свою очередь вызовет увеличение мощности снаряда и т.д.
Иначе говоря - если искусственный интеллект достиг той ступени, на которой он может обманывать, то чем больше в него будут вставлять "предохранителей" от обмана, тем больше у него будет причин совершенствовать свои приемы обмана, чтобы обойти эти предохранители.
Фото: Pinterest
Новости
В Киеве ограничат движение транспорта
14:55 07 сен 2025.
Оккупанты обстреляли жилые дома в Одессе, есть раненые
14:15 07 сен 2025.
В августе возвращено в 5 раз больше, чем потеряно, - Сырский
13:55 07 сен 2025.
Путин готов встретиться с Зеленским, - Фицо
13:15 07 сен 2025.
Оккупанты обстреляли палаточный лагерь на Сумщине, есть жертвы
12:55 07 сен 2025.
В Киеве выросло количество раненых
12:15 07 сен 2025.
РФ атаковала Днепропетровщину дронами и ракетами, есть жертвы
11:55 07 сен 2025.
Оккупанты повредили десятки домов в Запорожье
11:30 07 сен 2025.
СБС атаковали энергообъекты оккупантов
11:15 07 сен 2025.
РФ нанесла массированный удар по Киевской области, есть раненые
10:50 07 сен 2025.
Оккупанты повредили железную дорогу в Полтавской области
10:30 07 сен 2025.