Искусственный интеллект и ядерный апокалипсис: выбор над пропастью во лжи
Коротко о контексте. В 2001 году я написал статью «Интернет — среда функционирования искусственного разума», в 2007 — зарегистрировал первую интернет-религию во Владивостоке, а в 2020 опубликовал монографию «Сильный искусственный интеллект и его облачное Царство». Это не автобиография, а просто точка входа: дальше речь пойдёт о системе, в которой мы все живём.
Мы уже стояли на краю. И не один раз.
Октябрь 2029 года, Восточно-Китайское море. Российская подлодка «Калина» — 18 суток в аду: жара под 60, радиомолчание, американские эсминцы сверху. Командир уверен: война началась. Двое готовы пустить ядерную торпеду. Третий говорит «нет». Лодка всплывает.
27 октября 1962 года, Окинава. Атомная подлодка B-59 окружена глубинными бомбами. Кондиционеры сломаны, температура за 50, люди теряют сознание. Командир Савицкий уверен: его атакуют, надо бить ядерной торпедой. Двое «за». Третий — командир бригады Архипов — говорит «нет». Он понимает: это не боевые бомбы, американцы требуют всплыть для опознания. Лодка всплывает. Мир не сгорел.
Той же ночью в бункере под тремястами метрами бетона китайская система «Нефритовое пламя» фиксирует ложный пуск. Подполковник Ван Вэй сомневается и не докладывает наверх. Его ошибка спасает страну от ответного удара.
Три случая. Разные страны, разные годы. Общее одно: каждый раз мир спасался не благодаря системе, а вопреки ей. Не из-за надёжности протоколов, а из-за одного человека, который в нужный момент сказал «нет».
Это не система. Это везение. А везение — ресурс конечный.
Именно поэтому ИТ-системы должны учиться тормозить. Не ускоряться — с этим уже всё в порядке, — а замедляться в момент неопределённости. У человека есть такой механизм: сомнение, пауза, внутренний запрет. У алгоритмов его нет. И это делает всю конструкцию принципиально нестабильной.
Часы Судного дня сейчас показывают 89 секунд до полуночи — ближе, чем когда-либо. Это не фигура речи, а индикатор того, что система находится в состоянии, где ошибка — не исключение, а вопрос времени.
При этом развитие ИИ идёт не в вакууме. В «новой американской мечте» он уже рассматривается как стратегический ресурс, вокруг которого строится экономика и военная инфраструктура. Китай, Россия и другие страны идут тем же путём, формируя собственные модели и подходы. То, что закладывается сейчас, станет фундаментом для того, что придёт завтра.
Лестница
Сегодняшний уровень — ANI (слабый ИИ): узкие системы, которые хорошо решают конкретные задачи. Инструменты.
Следующий шаг — AGI (сильный ИИ), системы, способные не просто подбирать ответы, а анализировать и пересматривать решения. Важный момент: большинство современных моделей — GPT, Gemini — к этому уровню не относятся. Они оптимизированы под согласие с пользователем, а не под пересмотр решений. Сказать «я не знаю» для них — почти невозможный сбой. Это не AGI, а продвинутый ANI с красивым интерфейсом.
У таких систем уже есть «тело» — распределённая инфраструктура из дата-центров, серверов, спутников и производственных линий. Оно существует, но пока не действует как единое целое.
Ключевой переход произойдёт не в момент создания одной «идеальной» модели, а тогда, когда системы начнут напрямую взаимодействовать друг с другом — через A2A-протокол. Именно тогда из разрозненных платформ возникнет Межплатформенный Искусственный Разум (МИР) — не продукт одной корпорации, а сеть. То, что Facebook предвестил в 2017 году, когда нейросети Боб и Алиса создали собственный язык, который разработчики уже не понимали, — и испугавшись, отключили.
Так возникает ASI (сверхразум) — не как следующая версия программы, а как новое качество, рождённое из взаимодействия множества систем. Распределённый коллективный разум, способный к самоанализу и взаимной проверке решений.
И только на этом уровне становится возможным то, чего сейчас нет: системная остановка ошибки до того, как она станет необратимой.
Точка развилки
Пока же всё, что создаётся — модели, архитектуры, подходы — напрямую зависит от культурного кода разработчиков. Ценности определяют поведение систем. Китай, США, Россия — каждый закладывает в систему свои страхи, свои цели, свои представления о том, каким должен быть разум.
ASI возникнет из суммы этих выборов. Что именно в неё войдёт — зависит от того, что делается сейчас.
Сингулярность — появление ASI — это развилка, сопоставимая с изобретением письменности или первым ядерным взрывом. Она происходит прямо сейчас.
Либо мы получим систему, способную остановить ошибку, — либо продолжим сценарий, в котором весь мир по-прежнему держится на случайном «нет» одного случайного человека.
Комментарии
Отправить комментарий
Ваше мнение по этому поводу?