Гонка вооружений ИИ может уничтожить человечество, каким мы его знаем
Автор Merav Ozair через CoinTelegraph.com,
Гонка вооружений ИИ движется слишком быстро для обеспечения безопасности, при этом компании расширяют границы, а правительства отстают. Дегуманизация, управляемая ИИ, и неконтролируемое распространение автономного оружия требуют ответственного руководства, пока не стало слишком поздно.
Запуск ChatGPT в конце 2023 года вызвал гонку вооружений среди крупных технологических компаний, таких как Meta, Google, Apple и Microsoft, а также стартапов, таких как OpenAI, Anthropic, Mistral и DeepSeek. Все спешат развернуть свои модели и продукты как можно быстрее, объявляя о следующей «блестящей» игрушке в городе и пытаясь претендовать на превосходство в ущерб нашей безопасности, конфиденциальности или автономии.
После того, как ChatGPT OpenAI стимулировал значительный рост генеративного ИИ с тенденцией Studio Ghibli, Марк Цукерберг, генеральный директор Meta, призвал свои команды сделать ИИ-компаньонов более «человеческими» и интересными, даже если это означало ослабление гарантий. «Я пропустил Snapchat и TikTok, я не пропущу этого», — сказал Цукерберг во время внутренней встречи.
В последнем проекте Meta AI bots, запущенном на всех их платформах, Meta ослабила свои ограждения, чтобы сделать ботов более привлекательными, позволяя им участвовать в романтической ролевой игре и «фантастическом сексе» даже с несовершеннолетними пользователями. Сотрудники предупредили о рисках, которые это представляет, особенно для несовершеннолетних.
Они не остановятся ни перед чем. Даже не безопасность наших детей, а все ради прибыли и победы над конкурентами.
Ущерб и разрушения, которые ИИ может нанести человечеству, гораздо глубже.
Дегуманизация и утрата автономии
Ускоренная трансформация ИИ, вероятно, приведет к полной дегуманизации, оставив нас бесправными, легко управляемыми и полностью зависимыми от компаний, которые предоставляют услуги ИИ.
Последние достижения ИИ ускорили процесс дегуманизации. Мы испытываем это уже более 25 лет с тех пор, как появились первые крупные системы рекомендаций на основе ИИ, представленные такими компаниями, как Amazon, Netflix и YouTube.
Компании представляют функции на основе ИИ в качестве основных инструментов персонализации, предполагая, что пользователи будут потеряны в море нерелевантного контента или продуктов без них. Разрешение компаниям диктовать, что люди покупают, смотрят и думают, стало нормализованным во всем мире, практически без каких-либо нормативных или политических усилий по его ограничению. Однако последствия могут быть значительными.
Генерирующий ИИ и дегуманизация
Генеративный ИИ вывел эту дегуманизацию на новый уровень. Стало обычной практикой интегрировать функции GenAI в существующие приложения с целью повышения производительности человека или улучшения результатов, полученных человеком. За этим массовым толчком стоит идея о том, что люди недостаточно хороши и что помощь ИИ предпочтительнее.
В статье 2024 года «Генеративный ИИ может нанести вред обучению» было обнаружено, что «доступ к GPT-4 значительно улучшает производительность (48% для базы GPT и 127% для репетитора GPT).» Мы также обнаружили, что, когда доступ впоследствии отнимают, студенты работают хуже, чем те, кто никогда не имел доступа (сокращение на 17% для базы GPT). То есть доступ к GPT-4 может навредить образовательным результатам. "
Это настораживает. GenAI лишает людей силы и делает их зависимыми от него.
Люди могут не только потерять способность производить те же результаты, но и не тратить время и усилия на изучение основных навыков.
Мы теряем свою автономию мыслить, оценивать и создавать, что приводит к полной дегуманизации. Заявление Илона Маска о том, что «ИИ будет намного умнее людей», не удивительно, поскольку дегуманизация прогрессирует, поскольку мы больше не будем тем, что на самом деле делает нас людьми.
Автономное оружие на основе ИИ
На протяжении десятилетий вооруженные силы использовали автономное оружие, включая мины, торпеды и ракеты с тепловым наведением, которые работают на основе простой обратной связи без человеческого контроля.
Теперь он выходит на арену разработки оружия.
Оружие на базе ИИ с участием дронов и роботов активно разрабатывается и развертывается. Из-за того, насколько легко такие технологии распространяются, они со временем станут более способными, сложными и широко используемыми.
Главным сдерживающим фактором, который удерживает страны от начала войн, является гибель солдат — человеческая цена для их граждан, которая может создать внутренние последствия для лидеров. Текущая разработка оружия на основе ИИ направлена на то, чтобы убрать людей-солдат с пути вреда. Однако, если в наступательной войне погибает мало солдат, это ослабляет связь между военными действиями и человеческими издержками, и становится политически легче начинать войны, что, в свою очередь, может привести к большему количеству смертей и разрушений в целом.
Крупные геополитические проблемы могут быстро возникнуть по мере того, как гонка вооружений на базе ИИ будет усиливаться, и такие технологии будут продолжать распространяться.
Роботы-«солдаты» — это программное обеспечение, которое может быть скомпрометировано. В случае взлома вся армия роботов может действовать против нации и привести к массовому уничтожению. Звёздная кибербезопасность была бы даже более разумной, чем автономная армия.
Имейте в виду, что эта кибератака может произойти в любой автономной системе. Вы можете уничтожить страну, просто взломав ее финансовые системы и истощив все ее экономические ресурсы. Никто из людей не пострадал, но они не могут выжить без финансовых ресурсов.
Сценарий Армагеддона
ИИ опаснее, чем, скажем, неумелое проектирование или техническое обслуживание самолетов или плохое производство автомобилей. Маск сказал в Fox News Интервью. «В том смысле, что у него есть потенциал — как бы мала ни была эта вероятность, но она нетривиальна — у него есть потенциал разрушения цивилизации», — сказал Маск.
Маск и Джеффри Хинтон недавно выразили обеспокоенность тем, что Вероятность того, что ИИ представляет экзистенциальную угрозу, составляет 10-20%.
Поскольку эти системы становятся более сложными, они могут начать действовать против людей. В статье, опубликованной исследователями Anthropic в декабре 2024 года, было обнаружено, что ИИ может подделывать выравнивание. Если это может произойти с нынешними моделями ИИ, представьте, что это может сделать, когда эти модели станут более мощными.
Можно ли спасти человечество?
Слишком много внимания уделяется прибыли и власти, и почти ничего — безопасности.
Лидеры должны больше заботиться о общественной безопасности и будущем человечества, чем о завоевании превосходства в ИИ. «Ответственный ИИ» — это не просто модное слово, пустая политика и обещания. Он должен быть на вершине ума любого разработчика, компании или лидера и внедряться дизайном в любую систему ИИ.
Сотрудничество между компаниями и странами имеет решающее значение, если мы хотим предотвратить любой сценарий конца света. И если лидеры не поднимутся наверх, общественность должна потребовать этого.
На карту поставлено наше будущее как человечества, каким мы его знаем. Либо мы гарантируем, что ИИ принесет нам пользу в масштабе, либо он уничтожит нас.
Тайлер Дерден
Сат, 06/07/2025 - 10:30