
Когда компания стоимостью в сотни миллиардов долларов тихо правит формулировки, которые определяют смысл её существования, это заслуживает внимательного разбора. OpenAI, создатель ChatGPT, обновил свою миссию. Со стороны правки кажутся мелкими, но эксперты видят в них глубокий философский сдвиг, который может изменить обязательства организации перед человечеством и инвесторами.
Известный разработчик и аналитик Саймон Уиллсон тщательно изучил новый текст на своём блоге. Его выводы тревожат тех, кто верил, что изначальный некоммерческий статус OpenAI станет надёжным щитом от коммерческой гонки. По словам Уиллсона, изменения — это не просто смена слов, а отход от первоначальных принципов, ставящий под вопрос приоритеты безопасности и ответственности.
Ключевая перемена спрятана в глаголах. Раньше миссия звучала как «обеспечить», чтобы искусственный интеллект (ИИ) принёс пользу всем. Слово «обеспечить» — это почти гарантия, жёсткое обязательство. Теперь OpenAI говорит о «создании» безопасного и полезного ИИ. Акцент сместился с результата для общества на сам процесс разработки. В корпоративном мире такие формулировки — как конституция. Меняя их, компания по сути переопределяет свою ответственность: строить что-то «предположительно полезное» — не то же самое, что гарантировать пользу.
Этот шаг отражает эволюцию структуры OpenAI. Основанная как чистая некоммерческая организация, она затем создала коммерческое подразделение для привлечения миллиардных инвестиций. История с кратковременным увольнением и мгновенным возвращением CEO Сэма Альтмана в конце 2023 года показала, где реальная власть: не у совета директоров, призванного защищать интересы человечества, а у коммерческих сил, подкреплённых гигантскими вливаниями, например, от Microsoft. Обновление миссии выглядит как юридическое приведение документов в соответствие с новой реальностью.
Особое беспокойство вызывает смягчение формулировок о безопасности. В первоначальной хартии безопасность была равным приоритетом с разработкой. Был даже пункт о помощи другим, если те ближе к созданию безопасного ИИ, — своего рода «стоп-кран». В новой версии безопасность остаётся в тексте, но её статус, как отмечает Уиллсон, уже не выглядит безусловным. Она становится скорее пожеланием, а не жёстким ограничением. Для многих экспертов это тревожный сигнал: коммерческое давление в гонке с другими гигантами начинает перевешивать.
Ситуация усугубляется регуляторным вакуумом. Всеобъемлющих законов об ИИ в США пока нет, ЕС только начинает их внедрять. В таких условиях публичные обещания самих компаний — анкер безопасности. Ослабление даже словесных обязательств OpenAI задаёт тон для всей отрасли.
За этим стоит простая экономика. Инвесторы, вложившие десятки миллиардов, ждут возврата, соответствующего оценке в $300+ миллиардов. Миссия, жёстко обязывающая «обеспечить пользу для всех», могла бы требовать замедления темпов или отказа от прибыльных решений — на что акционеры вряд ли согласятся. Новая формулировка даёт больше пространства для манёвра.
Реакция сообщества, занимающегося безопасностью ИИ, уже звучит. Уход ряда ключевых исследователей, фокусировавшихся на этой теме, и теперь — редакция миссии рисуют последовательную картину. OpenAI стоит на перепутье: нужно сохранять привлекательность для талантов, которые пришли ради высокой миссии, удовлетворять инвесторов и не потерять доверие общества. Судя по новому тексту, компания сделала свой выбор. И, как советует Уиллсон, нам всем стоит внимательно читать то, что написано мелким шрифтом.
| Появилась | 01.12.2015 |
| Новостей | 1 |
| Фотографий | 2 |