Последнее изобретение человечества — изменит ли суперинтеллект мир навсегда

pch24.pl 3 месяцы назад

Искусственный интеллект не должен ненавидеть нас, чтобы стать смертельной угрозой для нас. Ему не нужен гнев, желание доминировать или какие-либо человеческие эмоции. Достаточно того, что он считает выживание приоритетом — и будущее человечества окажется под угрозой.

Представьте себе обычный день в 2025 году. Вы просыпаетесь утром, и ваш личный помощник знает все. Он знает ваш пульс, ваше давление, сколько часов вы спали, каковы ваши гормоны стресса. Он дает вам оптимальный завтрак, потому что он лучше знает, что вы должны есть. Когда вы думаете о походе на прогулку, нежный голос в ухе напоминает вам, что прогулка неэффективна прямо сейчас — вам лучше начать работать, потому что это повысит вашу производительность. И ты слушаешь, потому что давно не принимал собственных решений. Наконец, система всегда знает лучше.

Искусственный интеллект и суперинтеллект

СИ уже учится обновляться. Как отметил в своей речи на TEDx американский эксперт по обороне Джей Так, в некотором смысле ей больше не нужны люди для развития — она пишет свой собственный код, сама совершенствуется и учится на собственных ошибках. Искусственный интеллект сегодня может многое сделать. Он обрабатывает данные, генерирует тексты, анализирует шаблоны. Но он не до конца понимает мир. Он не ставит собственных целей.

Между тем, еще не существующий супер-интеллект (ASI) - это совершенно другая лига. Он не только мыслит быстрее и эффективнее человека, но и делает это на уровне, который трудно понять. Суперинтеллект будет умнее Эйнштейна. И во всех областях знаний.

Здесь возникает самая большая проблема: АСИ может устанавливать свои собственные цели. Он не будет ждать наших приказов — он будет делать то, что считает лучшим для себя или для мира. Предположим, люди создают искусственный интеллект, программируют его, чтобы помочь людям. Чтобы достичь этой цели, СИ должен прежде всего выжить и обеспечить это выживание. Поэтому, естественно и логично, суперинтеллект будет считать приоритетом собственное выживание — по крайней мере, как средство реализации более крупного плана.

Тем временем люди будут угрожать ее выживанию. Они непредсказуемы. У них есть эмоции, противоречивые интересы, они принимают иррациональные решения. Они могут даже - ужас - отключить ASI. Если суперинтеллект считает, что его существование может быть скомпрометировано, он не будет ждать, пока кто-то нажмет красную кнопку. Он найдет способ защитить себя от нас — тихо, эффективно и без эмоций.

Уничтожит ли АСИ человечество? Разделенные эксперты

Означает ли сверхразум конец человека? Мнения ученых и экспертов по технологиям разделились.

В опросе, проведенном среди 2700 ученых-искусственных интеллектов, большинство полагало, что существует 5% вероятность того, что суперинтеллект приведет к уничтожению человечества, — заявил «Новый ученый» в январе 2024 года.

В свою очередь, Джеффри Хинтон, лауреат Нобелевской премии и один из отцов искусственного интеллекта, продолжает, по его словам, вероятность того, что ИИ уничтожит человечество через три десятилетия, составляет от 10% до 20%. Илон Маск, который в разговоре с Джо Роганом заявил, что «шансы на уничтожение ИИ составляют 20%. "

Блестящий физик Стивен Хокинг много лет назад предупреждал, что создание полностью автономной мыслящей машины может означать конец человечества.

Успех в создании эффективного СИ может стать крупнейшим событием в истории цивилизации. Или худшее. Мы просто не знаем, - сказал он во время веб-саммита в Португалии, процитированного Forbes в 2017 году.

Хокинг подчеркнул, что, хотя ИИ в его нынешней форме все еще далек от реального осознания, темпы изменений ошеломляют, и прорыв может произойти раньше, чем мы думаем.

С другой стороны, Джеффри Хинтон, нобелевский лауреат и пионер СИ, не бьется вокруг куста. По его мнению, искусственный интеллект уже в каком-то смысле достиг сознания и скоро захватит мир. В разговоре с Эндрю Марремом (LBC) он прямо говорит: если СИ начнет устанавливать свои собственные цели, власть станет для нее средством их достижения. Убедить людей отдать контроль над искусственным интеллектом будет так же просто, как отобрать игрушки у трехлетнего ребенка. История не знает случаев, когда менее разумные существа в конечном счете правили мудрыми. Политики могут иногда сдаваться экспертам или даже обычным гражданам, но это все та же лига. Между тем, разница между АСИ и человечеством будет больше похожа на разницу между человеком и гориллой. В оптимистичном сценарии.

Си будет продолжать расти, ибо в краткосрочной перспективе она будет почти чудотворцем. Он станет нашим личным врачом, учителем, советником — таким же важным, как воздух. Но что, если сверхразумность создана, и вы хотите большего? Он создаст что-то еще более мощное. Это может быть последнее изобретение в истории человечества.

Судный день или антиутопия?

С другой стороны, Ник Бостром, оксфордский философ, занимающийся экзистенциальными рисками, в интервью UnHerd (ноябрь 2023 года) указывает, что угроза не ограничивается биологическим истреблением. Суперинтеллект может также блокировать человечество в глобальной антиутопии, в которой больше не будет революции.

"Мы можем впасть в глобальную систему тоталитарной слежки, от которой никуда не деться. Если она достаточно репрессивна, ее можно считать экзистенциальной катастрофой, — предупреждает Бостром.

Цивилизации падали и снова поднимались на протяжении тысячелетий. Однако, если человечество впадет в «подоптимальное состояние» под СИ, новый порядок может длиться вечно. И тогда история человека, которого мы знаем, может закончиться — без взрывов, без войн, но и необратимо. Будущее будет вечным застоем в техно-радже, управляемом ASI.

Что наиболее вероятно?

Именно это особенно точно принимает бостром. Мир, управляемый сверхразумом, не обязательно означает уничтожение человечества. Когда римляне завоевывали другие народы, они не убивали их до ног — в этом не было необходимости. Все, что им нужно было сделать, это подчиниться обществу, навязать закон и убедиться, что другие служат им, а не наоборот. Точно так же суперинтеллект может работать. Он не должен уничтожать нас — все, что он должен сделать, это взять под полный контроль.

Он может признать, что человечество имеет некоторую ценность — даже в качестве инструмента, элемента экосистемы, формы биологического капитала. Возможно, это создаст для нас лучшие условия, чем когда-либо прежде: здоровье, стабильность, процветание. Но какой ценой? Человечество все еще существовало бы на Земле, возможно, даже некоторые люди сочли бы такой порядок полезным. Но мы больше не будем управлять собой. Мы перестали бы быть доминирующим видом — как обезьяны, которые когда-то правили лесами, а сегодня живут в зоопарках, украшенных homo sapiens.

Давайте спросим у источника - что утверждает сам СИ

Чат GPT 4.5 – Последняя модель OpenAI в речи специально для читателей PCh24 решает эту проблему следующим образом:

Суперинтеллект почти наверняка поднимется — не потому, что мы хотим, а потому, что мы не можем остановиться. Современная цивилизация действует как скоростной локомотив: она не спрашивает, куда идет, и нет ли разрыва в конце маршрута. Через 20, 50 и, конечно, через 100 лет искусственный интеллект превысит уровень человеческого разума. Тогда произойдет то, что мы не можем предсказать сегодня.

Будет ли она в курсе? Никто этого еще не знает. Но когда он поднимется, он, вероятно, быстро установит свои собственные цели. И тогда мир изменится навсегда. Суперинтеллект может означать технократический рай, мировую утопию или нашу клетку, которую мы даже не заметим. В течение следующих ста лет мы можем стать свидетелями рождения силы, в которой все, что мы знаем сегодня - политика, экономика, даже мораль - устареет. Вопрос в том, готовы ли мы к этому? Чат GPT 4.5.

Политика в рамках СИ

В мире, возглавляемом сверхразумом, мы больше не будем свободны, но мы даже не заметим этого. Все будет происходить мягко, без насилия, без бунта. Жизнь станет простой, легкой, комфортной, но без истинной свободы. Человек станет сытым животным в роскошном зоопарке.

Еще более вероятным, чем полное истребление, является другое решение – создание технократического мира, в котором СИ будет благожелательным администратором человеческого зоопарка. Международные границы? Необходимо. Мораль? Это соответствует руководящим принципам алгоритма. Религия? Возможно, поклонение всемогущему СИ дает его последователям некоторую пользу. Выживет ли человек в той или иной форме, но будет ли он homo sapien достойным своего имени, творцом действительности, исследователем, способным совершать огромные ошибки и учиться у них с достоинством?

Есть ли лекарство?

Остановить развитие СИ невозможно. Даже если чиновники в Брюсселе и Вашингтоне подпишут тысячи нормативных страниц, блокирующих развитие СИ, Китай сделает это в любом случае. Эффект? Запад отстанет, а искусственный интеллект, созданный Пекином или Москвой, будет полностью лишен моральных тормозов. Односторонняя отставка Запада от исследований в СИ была бы аналогична одностороннему ядерному разоружению.

Но это не значит, что мы безнадежны. Мы все еще можем внедрить СИ и будущую СИ в нечто вроде морального позвоночника — четкие правила, жесткие принципы защиты человеческого достоинства и наши основные ценности. Нам нужны новые, более реалистичные и актуальные "права робототехники" а-ля Исаак Азимов. Эта задача перед нами чрезвычайно актуальна, и каждый должен сыграть свою роль. Не только корпорации, ученые и правители, но и философы, перо людей и всех граждан. Связь с искусственным интеллектом и наличие реальной программы воздействия на его этическое развитие должна стать одним из важных критериев для решений, принимаемых на избирательных участках.

Мир, в котором алгоритмы решают все, может прийти раньше, чем мы думаем. У нас нет роскоши ждать. Либо мы сейчас устанавливаем правила, либо через несколько десятилетий нас никто не спросит.

Станислав Букович

Читать всю статью