
«Мы не можем обогнать инновации. Но должны ли мы пытаться?»
Когда Реджи Таунсенд задал этот вопрос репортеру Axios весной 2023 года, в нем отразилась главная дилемма XXI века. В мире, где ChatGPT пишет симфонии, алгоритмы решают, кто получит кредит, а нейросети ставят медицинские диагносы, кто-то должен остановиться и спросить: «А что будет с людьми?»
Этот вопрос — не риторический. Это суть работы человека, который стал одним из самых влиятельных голосов в дискуссии о будущем искусственного интеллекта. Вице-президент по этике данных в SAS Institute, член Национального консультативного комитета по искусственному интеллекту при президенте США, член совета директоров EqualAI. Но прежде всего — философ, который пытается удержать технологическую революцию в рамках человечности.
«ИИ — это зеркало, показывающее, кто мы есть», — говорит Таунсенд, и в этой метафоре скрыта целая философия. Искусственный интеллект не создает проблемы — он обнажает те, что уже существуют. Предвзятость в данных? Это наша предвзятость. Дискриминация в алгоритмах? Это отражение дискриминации в обществе.
Когда Реджи впервые начал задумываться об этике данных, он понял нечто важное: технологии не существуют в вакууме. Они влияют на всех нас неожиданными способами. И если мы не будем осторожны, они могут усилить худшее в нас, а не лучшее.
Эта прозорливость родилась не на пустом месте. За плечами у Таунсенда более двадцати лет работы в стратегическом планировании, управлении программами, консалтинге и бизнес-развитии. Он видел взлет облачных вычислений, наблюдал за революцией в продвинутой аналитике, был свидетелем рождения современного ИИ. Но где-то на этом пути он понял: техническая экспертиза без этического компаса — это корабль без руля.
«Мой интерес к этике данных и ИИ родился из смеси любопытства и беспокойства», — признается он в интервью. Это беспокойство не было абстрактным. Он видел, как алгоритмы отказывают людям в кредитах по непонятным причинам. Как системы распознавания лиц чаще ошибаются с темнокожими. Как автоматизация решений о найме воспроизводит гендерные стереотипы.
В SAS Institute — компании, которая более 47 лет является лидером в области аналитики и искусственного интеллекта — Реджи Таунсенд возглавляет уникальное подразделение: Data Ethics Practice (DEP). Это не отдел комплаенса и не юридическая служба. Это нечто более глубокое — направляющая рука, которая встраивает этические принципы в каждый продукт, процесс и стратегию компании.
«Мы хотим убедиться, что там, где появляется наше программное обеспечение, мы не причиняем вреда людям», — объясняет Таунсенд миссию своей команды. Звучит просто, но за этой простотой скрывается монументальная задача.
Его команда работает с пятью ключевыми принципами, которые звучат как новые заповеди цифровой эры:
Человекоцентричность: Способствовать благополучию людей, их свободе действий и справедливости.
Инклюзивность: Обеспечивать доступность и включать разнообразные перспективы и опыт.
Подотчетность: Проактивно выявлять и смягчать негативные последствия.
Прозрачность: Открыто сообщать о предполагаемом использовании, рисках и том, как принимаются решения.
Надежность: Работать надежно и безопасно, управляя потенциальными рисками на протяжении всего жизненного цикла.
Эти принципы не висят на стене в рамке. Они встроены в процесс разработки продуктов, в обучение сотрудников, в диалог с клиентами и партнерами по всему миру — от Лондона до Китая, от Торонто до Рима.
Осень 2023 года. Белый дом. Президент США подписывает исторический указ о регулировании искусственного интеллекта. Среди советников, чьи рекомендации легли в основу документа, — Реджи Таунсенд.
Позже он выступает на одном из AI Insight Forum в Сенате США — двухпартийной инициативе Конгресса по разработке ограждений для ИИ. «У меня недавно было две невероятные возможности», — напишет он позже, отмечая значимость этого момента.
Назначение в Национальный консультативный комитет по искусственному интеллекту (NAIAC) при Министерстве торговли США — это не просто почетная должность. Это реальное влияние на политику, которая определит, как Америка будет регулировать технологию, меняющую мир. Комитет консультирует президента и Национальное управление по инициативе в области ИИ по широкому кругу вопросов.
Но власть не опьяняет Таунсенда. Он остается реалистом. «Я не верю, что мы когда-либо сможем обогнать инновации с точки зрения регулирования», — говорит он. — «Но больший вопрос: должны ли мы пытаться?»
Его ответ нюансирован: «Если мы верим, что инновации — это часть жизненной силы нации, то мы должны позволить инновациям происходить. Но мы должны внимательно следить за ними... так что когда они начнут проникать в критическую массу, мы сможем их направить, чтобы они не причиняли неоправданный вред».
Таунсенд не просто теоретик. Он разработал практическую философию, которую называет «профессиональными принципами» — четыре столпа, на которых строится его подход:
Первый принцип: Строить доверие через подлинные отношения. Демонстрируя целостность и надежность, можно культивировать доверие среди коллег и заинтересованных сторон, которое становится взаимным и движет успехом команды.
Второй принцип: Принимать уязвимость. Признание своих ограничений и открытость новым идеям создают атмосферу аутентичности и пространство для творчества в инновациях.
Третий принцип: Понимать ситуации. Активное слушание и эмпатия дают ценные инсайты в сложные вопросы и позволяют подходить к ним с всесторонней перспективой.
Четвертый принцип (негласный, но очевидный): Действовать. «Самый большой риск сейчас — не иметь смелости что-либо сделать», — предупреждает он.
Эта философия проявляется в его повседневной работе. Когда в 2020 году пандемия COVID-19 ударила по миру, многие компании начали срочно внедрять системы мониторинга, контактного трейсинга, автоматизации решений. Таунсенд и его команда работали сверхурочно, помогая клиентам SAS внедрять эти технологии так, чтобы они не нарушали приватность людей и не создавали новых форм дискриминации.
Февраль 2023 года. Таунсенд публикует статью «Призыв к действию: расширение прав меньшинств в революции ИИ». В ней он говорит о том, что волнует его больше всего: как убедиться, что технологический прогресс не оставляет позади тех, кто уже находится на обочине общества.
«Как руководитель Data Ethics Practice в SAS, я много времени провожу, размышляя о социальных последствиях ИИ», — пишет он. — «Рассматривая его преимущества, такие как улучшение медицинских решений, и подводные камни — принятие решений на основе предвзятых данных приводит к ужасным последствиям для пациентов».
Он активно выступает за устойчивые практики DEI (Diversity, Equity, Inclusion) в технологиях. В феврале 2024 года, во время Месяца истории чернокожих, он публикует эссе «Разрывая цикл: как устойчивые практики DEI способствуют ответственным инновациям в ИИ». В нем он напоминает об историческом паттерне: вечном танце между социальным прогрессом и регрессией в отношении исторически маргинализированных сообществ Америки.
Февраль 2025 года. Таунсенд публикует еще одну статью, которая вызывает резонанс: «Первый дата-сайентист: почему Ида Б. Уэллс до сих пор босс». В ней он рассказывает о пионерке США, которая использовала методы сбора и анализа данных, намного опередившие ее время. «Сегодня ее могли бы назвать дата-сайентистом, но я называю ее боссом!» — пишет он с восхищением.
Это характерно для Таунсенда — видеть связи между прошлым и будущим, между социальной справедливостью и технологией, между данными и достоинством человека.
«Мой самый большой вызов — культурный», — признается Таунсенд. — «Существует напряжение между личной свободой и членством в обществе. Никто не любит, когда ему говорят «нет», но риски ИИ требуют, чтобы мы установили ограждения».
Это напряжение он ощущает ежедневно. Технологические компании хотят быстро двигаться и ломать барьеры. Регуляторы хотят защитить граждан. Между ними — такие люди, как Таунсенд, пытающиеся найти баланс.
«Продуктивные беседы требуют, чтобы мы пробирались через это напряжение и принимали его», — говорит он. Не избегали, не игнорировали — принимали как неотъемлемую часть процесса.
Он видит еще одну культурную дилемму в самом понимании продуктивности. Когда ИИ берет на себя рутинные задачи, освобождая людям время, возникает вопрос: для чего это время? «Будет ли целью стать оптимальными производителями рабочих продуктов, какую бы форму они ни принимали?» — спрашивает он. — «Как люди, мы здесь для того, чтобы производить для экономики, или мы пытаемся выполнить нашу работу более эффективно, чтобы быть более продуктивными в наших жизнях, целостно?»
Ответы на эти вопросы будут различаться от организации к организации, от лидера к лидеру. Но сам факт, что Таунсенд задает эти вопросы, говорит о глубине его подхода.
В мае 2023 года Таунсенд публикует эссе «Воспитание здравого смысла в ИИ: необходимость критического мышления и здорового скептицизма». В нем он предупреждает об опасности слепой веры в технологию.
«По мере того как ИИ быстро развивается в ближайшие несколько лет, мне повезло играть активную роль в направлении ответственного пути вперед, когда дело касается влияния технологий на нашу повседневную жизнь», — пишет он.
Таунсенд выступает за AI-грамотность для всех — не только в контексте своей работы. «Нам всем нужно базовое понимание ИИ, что это такое и что это не такое. Мы должны понимать реалистичные способы, которыми он может нам помочь, и способы, которыми он может нам навредить».
Он особенно критичен к «техноцентризму в ИИ» — тенденции ставить технологию в центр, забывая о людях. В сентябре 2023 года его статья «Поиск баланса: навигация по подводным камням ИИ-техноцентризма» исследует эту проблему.
Но Таунсенд не останавливается на философии. Он предлагает конкретные решения. Когда он выступает перед League of Leaders — группой бизнес- и IT-лидеров из ритейла и потребительских брендов, — он демонстрирует практический подход SAS к этичному ИИ:
«На самом верху, прежде чем вы напишете строчку кода, вы должны активировать среду доверительного ИИ», — объясняет он. — «Вам нужно начать с какой-то меры надзора. Вы должны подумать о том, как будет выглядеть ваша операция. Вы должны убедиться, что у вас есть адекватные показатели эффективности и снижения рисков, и вы должны работать над созданием культуры, которая является этичной по дизайну».
Это не пустые слова. SAS разработал детальную методологию, которую компания применяет к своим продуктам и предлагает клиентам. Это исследовательский, основанный на доказательствах план для этичного и ответственного ИИ.
Работа Таунсенда не ограничивается США. Как вице-президент практики, действующей глобально, он взаимодействует с клиентами, партнерами, академическими кругами и политиками по всему миру. Его работа информирует практики SAS и исследует новые способы поднять людей с помощью данных и ИИ.
Он работает с правительствами, помогая формировать политику. С компаниями, внедряя этические практики в их ИИ-системы. С академическими институциями, исследуя новые подходы к ответственному ИИ. С некоммерческими организациями, такими как AI4ALL, обучая новое поколение ответственных ИИ-инноваторов.
В августе 2022 года он пишет о программе, в которой молодые люди решают реальные проблемы с помощью ИИ. «Как руководитель Data Ethics Practice в SAS, я много времени провожу, размышляя о социальных последствиях ИИ», — повторяет он свою мантру. Для него это не работа — это миссия.
В 2015 и 2020 годах Variety включил Таунсенда в список дилмейкеров, за которыми стоит следить. В 2020 году журнал назвал его одним из 500 самых влиятельных фигур глобальной медиа- и развлекательной индустрии.
В 2024 году SAS наградила его CEO Award of Excellence — премией компании, признающей лучших 25 сотрудников года за выдающуюся работу и воплощение корпоративных ценностей.
Но самое важное признание — это влияние. Когда политики в Вашингтоне обсуждают законы об ИИ, они прислушиваются к Таунсенду. Когда компании внедряют новые ИИ-системы, они консультируются с его командой. Когда общественность беспокоится о будущем с ИИ, они читают его статьи и слушают его выступления.
«Наше видение — мир, где данные расширяют возможности людей процветать. Мы преследуем это видение через доверительные и ответственные инновации», — говорит Реджи Таунсенд, резюмируя свою миссию.
В этом простом заявлении — вся его философия. Технология для людей, а не люди для технологии. Данные как инструмент расширения прав, а не контроля. ИИ как зеркало, которое помогает нам стать лучше, а не воспроизводит худшее в нас.
«Давайте не превращать ИИ в пугало, а применим его способами, которые принесут пользу людям, особенно самым уязвимым», — призывает он.
Мы живем в переломный момент истории. Искусственный интеллект меняет все — от того, как мы работаем, до того, как мы любим, от того, как мы учимся, до того, как мы управляем обществом. В этот момент нам нужны не только инженеры и программисты. Нам нужны философы. Нам нужны этики. Нам нужны люди, которые спрашивают не только «можем ли мы?», но и «должны ли мы?».
Реджи Таунсенд — один из таких людей. В эпоху алгоритмов он хранитель человечности. В мире данных он защитник достоинства. В революции ИИ он голос разума.
И возможно, самое важное — он напоминает нам, что будущее не предопределено. Оно создается нашими выборами сегодня. И если мы будем мудры, если мы будем смелы, если мы будем помнить о людях, а не только о прибылях, мы можем создать будущее, в котором технология действительно служит человечеству.
«ИИ — это зеркало», — повторяет он. И в этом зеркале мы видим самих себя. Вопрос в том: нравится ли нам то, что мы видим? И если нет — что мы собираемся с этим делать?
Реджи Таунсенд знает свой ответ. Он собирается продолжать задавать сложные вопросы, строить этические системы и бороться за то, чтобы революция ИИ подняла всех, а не только избранных.
В конце концов, как он сам говорит: «Риски хорошо задокументированы. Теперь нам нужна смелость что-то сделать. Новый риск — не иметь смелости сделать что-либо».
Реджи Таунсенд живет и работает в районе Большого Чикаго, продолжая свою миссию по созданию мира, где данные расширяют возможности людей процветать.
Реджи Таунсенд - фотография из открытых источников
Посмотреть фото