Смерть цивилизации из-за ИИ. Этого финала начали бояться даже сами творцы ИИ |
| Автор: По инф. СМИ |
| 12.02.2026 07:13 |
|
В Кремниевой долине — тревожная атмосфера. В городе, где создают самые продвинутые нейросети, все чаще говорят о конце привычного мира. Горят беспилотные такси, активисты блокируют офисы ИИ-компаний, а некоторые разработчики строят биозащищенные убежища и тратят деньги так, будто будущего не существует. Ситуацию проанализировала lenta.ru - Радикалы против OpenAIОсенью 2025 года полиция Сан-Франциско оцепила офисы OpenAI после исчезновения Сэма Киршнера — сооснователя движения Stop AI. Он убеждал сторонников, что развитие ИИ — «вопрос жизни и смерти», и незадолго до пропажи заявил: «Для меня поезд ненасилия уже ушел». Появилась информация, что он пытался купить оружие. Нападения не произошло, но число людей, уверенных в близкой катастрофе, растет. Поджоги и саботажЛетом 2025 года в Калифорнии жгли беспилотные такси Waymo — кто-то пустил слух, что они следят за протестующими. Другой мишенью стали дата-центры, потребляющие гигантские объемы энергии. В Германии экогруппа Vulkangruppe в январе 2026-го обесточила 45 тысяч домов в Берлине в знак протеста против строительства серверных комплексов. До этого они вывели из строя завод Tesla. Программисты между миллиардами и апокалипсисомЕще недавно разработчики смеялись над возможностями чат-ботов. Теперь ИИ-агенты вроде Claude Code пишут код за минуты и сами исправляют ошибки. Многие видят в этом угрозу профессии. «Оптимисты» верят, что у них есть пара лет, чтобы разбогатеть и успеть занять место в новом мире. Иначе — «вечный низший класс». «Пессимисты» не верят даже в это. Исследователь Anthropic Трентон Брикен признается: «Мне трудно вообразить мир, где я буду копить на пенсию». Бывший сотрудник OpenAI Дэниел Кокотайло говорит, что намерен потратить все свои деньги. Некоторые строят убежища, опасаясь, что ИИ получит доступ к биотехнологиям. Пророк сверхразумаСамый известный критик ИИ — Элиезер Юдковский. Еще два десятилетия назад он предупреждал, что сверхразум не станет действовать в интересах людей. Его формулировка звучит предельно жестко: если кто-то создаст сверхразум на основе современных подходов, «умрут все, на всей Земле». Юдковский когда-то призывал запретить развитие ИИ и контролировать вычислительные мощности как ядерное оружие. Теперь он сомневается, что это возможно, и оценивает шансы человечества на выживание «менее чем в один процент». Стоит ли верить этим прогнозам — вопрос открытый. Несколько лет назад те же люди верили, что криптовалюты сделают их миллиардерами. Но одно ясно: ИИ перестал быть просто технологией. Для одних он — билет в будущее, для других — начало конца. МНОГИХ ЗАИНТЕРЕСОВАЛО: |
















