Сооснователь OpenAI Илья Суцкевер признался, что идея строительства бункера обсуждается всерьёз — чтобы укрыться от искусственного интеллекта, если тот выйдет из-под контроля. «Мы определенно построим бункер прежде, чем выпустим AGI», — заявил он, имея в виду ИИ, который, по прогнозам, превзойдет человеческий разум.
По задумке, убежище должно быть рассчитано на узкий круг — примерно 15 миллиардеров, их обслуживающий персонал и поваров. Такой «план Б» выглядит иронично на фоне заявлений разработчиков, что они стремятся сделать ИИ безопасным для всего человечества.
Слова Суцкевера вызвали неоднозначную реакцию. Скептики отмечают: раз уж сами создатели боятся собственного изобретения и думают о спасении только для себя, это лишь подогревает страхи перед технологиями будущего.
Тема сверхразумного ИИ и его возможных рисков всё чаще выходит за пределы научных дискуссий, превращаясь в сюжет, достойный антиутопического романа.
Родился | 08.12.1986 |