
«Вероятность того, что ИИ приведет к вымиранию человечества, составляет 99,9% в течение следующих ста лет». Эти слова, произнесенные в 2024 году в подкасте Лекса Фридмана, прозвучали как приговор. Их автор — латвийский ученый Роман Владимирович Ямпольский, человек, который первым ввел термин «безопасность ИИ» в 2010 году и с тех пор неустанно предупреждает человечество о надвигающейся катастрофе.
13 августа 1979 года в Латвии родился мальчик, которому суждено было стать одним из самых влиятельных и противоречивых голосов в области исследований искусственного интеллекта. Роман рос в семье, где ценились образование и научная строгость. Детство в постсоветской Латвии сформировало в нем особый взгляд на технологии — он видел, как быстро может рухнуть привычный мир, и эта интуиция позже найдет отражение в его работах по безопасности ИИ.
После окончания школы Роман принял решение, которое изменило его жизнь: он уехал в Америку для получения высшего образования. Первой остановкой стал Рочестерский технологический институт в штате Нью-Йорк, где он получил объединенную степень бакалавра и магистра компьютерных наук с высшими почестями. Уже тогда проявились его исключительные способности к анализу сложных систем.
Но настоящее становление Ямпольского как ученого произошло в Университете Буффало, где он в 2008 году защитил докторскую диссертацию по компьютерным наукам. Четыре года он получал престижную стипендию NSF IGERT — программу, предназначенную для самых талантливых исследователей в области интегративных междисциплинарных исследований. Эти годы заложили фундамент его будущих прорывных работ.
В 2008 году молодой доктор наук принял предложение стать ассистент-профессором в Инженерной школе Спида Луисвиллского университета в Кентукки. Здесь он основал лабораторию кибербезопасности, которая под его руководством стала одним из ведущих центров исследований в области безопасности ИИ.
Первые годы работы Ямпольский посвятил изучению поведенческой биометрии — способам идентификации людей по их уникальным поведенческим паттернам. Он исследовал, как можно распознать человека по манере игры в компьютерные игры, по стилю набора текста, по движениям мыши. Эта работа казалась узкоспециализированной, но она закладывала основы понимания того, как машины могут анализировать и предсказывать человеческое поведение.
Переломный момент наступил около 2010 года, когда Ямпольский осознал: то, что он изучает в области кибербезопасности, — это лишь прелюдия к гораздо более серьезным вызовам. Если машины уже могут анализировать и предсказывать поведение человека в простых задачах, что произойдет, когда они станут умнее людей во всех областях?
Именно тогда он ввел термин «AI safety» — безопасность ИИ — и начал разрабатывать новую область исследований. «Мне потребовалось время, чтобы понять: мы создаем системы, которые могут превзойти нас во всем, но мы понятия не имеем, как их контролировать», — вспоминал он позже.
В 2015 году Ямпольский совершил еще один концептуальный прорыв, создав новую дисциплину — «интеллектологию». Это была попытка системно изучить все возможные формы разума — от человеческого до машинного, от простейших алгоритмов до потенциального сверхразума. «ИИ — это всего лишь подобласть интеллектологии», — объяснял он свой подход.
Одним из самых известных концептов Ямпольского стала теория «AI-completeness» — идея о том, что некоторые задачи эквивалентны по сложности созданию полноценного искусственного интеллекта. Тест Тьюринга, по его мнению, был классическим примером такой AI-полной задачи.
Но по-настоящему известным Ямпольский стал благодаря своим мрачным прогнозам. В то время как большинство исследователей ИИ говорили о потенциальных выгодах технологии, он неустанно предупреждал об экзистенциальных рисках. «Представить, что люди могут контролировать сверхразумный ИИ, — это как представить, что муравей может контролировать исход игры в американский футбол, которая происходит вокруг него», — говорил он.
Ямпольский предложил концепцию «boxing» — изоляции ИИ в контролируемой среде, где он не может причинить вред. Вместе с коллегой Микаэлем Тразци он разработал идею внедрения «ахиллесовых пят» в потенциально опасные ИИ-системы — намеренных слабостей, которые позволили бы людям сохранить контроль.
За свою карьеру Ямпольский опубликовал более 150 научных работ, включая несколько влиятельных книг, таких как «Artificial Superintelligence: A Futuristic Approach» и «AI Safety and Security». Его исследования цитировались тысячи раз, а сам он стал одним из самых узнаваемых экспертов по безопасности ИИ в мире.
Он был научным консультантом Института исследований машинного интеллекта (MIRI), научным сотрудником Института Форсайт по безопасности ИИ, исследователем Института исследований глобальных катастроф. Его работы профилировались в десятках изданий, от New Scientist до BBC, а интервью с ним переводились на множество языков.
Несмотря на свои апокалиптические прогнозы, Ямпольский оставался преданным педагогом. В Луисвиллском университете он получил множество наград за преподавание: «Выдающийся преподаватель», «Профессор года», «Фаворит студентов». Он умел объяснять сложнейшие концепции простым языком, что делало его лекции популярными не только среди студентов, но и среди широкой публики.
«Я даю более 100 публичных выступлений в год», — говорил он. — «Моя задача — не напугать людей, а помочь им понять реальность того мира, в который мы входим».
Работы Ямпольского часто кажутся научной фантастикой, но в них есть пугающая логичность. Он исследует теоретические пределы объяснимости, предсказуемости и контролируемости передовых интеллектуальных систем. Его выводы неутешительны: «Нет никаких доказательств того, что у нас есть решение проблемы контроля ИИ».
В 2024 году он подписал открытое письмо, призывающее к приостановке разработки гигантских ИИ-экспериментов, вместе с такими светилами, как Йошуа Бенджио и Стюарт Рассел. Но время, кажется, работает против них — развитие ИИ ускоряется, а меры безопасности отстают.
В своих недавних выступлениях Ямпольский стал еще более категоричен. Он утверждает, что вероятность того, что мы живем в компьютерной симуляции, близка к 100%, а ИИ может помочь человечеству «выйти» из этой симуляции. Звучит как безумие, но за этими заявлениями стоит строгая научная логика.
«К 2030 году останется только пять профессий для людей», — предсказывает он, объясняя, что ИИ превзойдет человека практически во всех когнитивных задачах. Люди смогут претендовать лишь на те рабочие места, где работодатель будет руководствоваться прихотями, а не практической целесообразностью.
Роман Ямпольский — фигура парадоксальная. С одной стороны, уважаемый ученый с блестящей академической карьерой, автор сотен публикаций, основатель новых научных дисциплин. С другой — пророк технологического апокалипсиса, чьи предсказания кажутся слишком мрачными даже для научной фантастики.
Но именно эта двойственность делает его голос особенно важным. В эпоху, когда развитие ИИ происходит с головокружительной скоростью, а общественные дискуссии о его последствиях отстают от технического прогресса, такие люди, как Ямпольский, служат необходимым противовесом технооптимизму.
Его работы по безопасности ИИ стали фундаментом для целой области исследований. Концепции, которые он предложил десять лет назад, сегодня активно обсуждаются в лабораториях крупнейших технологических компаний мира. Возможно, именно его «параноидальные» предостережения помогут человечеству избежать тех катастрофических сценариев, о которых он неустанно предупреждает.
История Романа Ямпольского еще не завершена. В свои 45 лет он продолжает исследования, продолжает предупреждать, продолжает искать способы сделать будущее с ИИ более безопасным. Станет ли он пророком, чьи предсказания сбудутся, или ученым, чьи предостережения помогли предотвратить катастрофу? Ответ на этот вопрос даст будущее, которое наступает быстрее, чем мы успеваем к нему подготовиться.
Роман Ямпольский - фотография из архивов сайта
Посмотреть фото