eitel1_Anna MoneymakerGetty Images_BidenAI Anna Moneymaker/Getty Images

Корпоративная ответственность в эпоху искусственного интеллекта

СИЭТЛ – Начиная с прошлого года, мы слушаем какофонию рассуждений об искусственном интеллекте. Одни говорят, что искусственный интеллект (сокращённо ИИ) ведёт нас в сияющий новый мир бесконечных возможностей, а другие – что он быстро затягивает нас в мрачную антиутопию. Можно условно назвать это сценариями «Барби» и «Оппенгеймер»: они захватывают внимание и отличаются между собой так же, как голливудские блокбастеры нынешнего лета. Однако есть одна тема, которая привлекает слишком мало внимания: корпоративная ответственность.

В 1998 году, когда я пришла в Nike на новую должность вице-президента по корпоративной ответственности, эта компания переживала крупнейший корпоративный кризис эпохи сверхглобализации: знаменитая фирма товаров для спорта и фитнесса превратилась в символ эксплуатации работников в развивающихся странах. В поисках выхода из этого кризиса мы ввели стандарты корпоративной ответственности в Nike и выучили трудные уроки, которые сейчас помогли бы направить нашу работу по управлению ИИ-революцией.

У сегодняшней ситуации есть одно ключевое отличие. В конце 1990-х годов драма Nike разворачивалась сравнительно медленно. Но в случае с ИИ у нас нет такой роскоши, как время. Ровно год назад большинство людей ничего не знали о генеративном ИИ. Эта технология, подобно молнии, ворвалась в наше коллективное сознание в конце 2022 года, и с тех пор мы пытаемся её осмыслить.

Сейчас у компаний-разработчиков генеративного ИИ нет никаких ограничений, навязанных им извне. В результате всем мы превратились в подопытных кроликов. И это абсолютно ненормально. Если бы компания Boeing или Airbus представила самолёт, который может стоить дешевле и летать быстрее, но потенциально очень опасен, мы бы не взяли на себя такой риск. Фармацевтическую компанию, выпустившую на рынок лекарство, которое не прошло испытания, и ограничившуюся лишь предупреждением, что это лекарство может быть токсично, могут признать виновной в уголовном преступлении за причинение болезни или смерти. Почему же тогда считается нормальным, что технологические компании могут выводить на рынок приложения на основе ИИ, которые – как они же сами предупреждают – создают риск исчезновения человечества?

Даже до яркого появления на сцене искусственного интеллекта крупные технологические компании и «экономика внимания» подвергались усиливающейся критике за создаваемый ими вредоносный эффект. Такие приложения, как Snapchat, Instagram и TikTok, разработаны специально для провоцирования всплесков дофамина в мозге, что превращает пользование ими в такую же вредную привычку, как курение сигарет. Уже сложился научный консенсус, что цифровые медиа наносят вред психическому здоровью пользователей, особенно детей.

ИИ придал мощное ускорение экономике внимания и создал новый ряд рисков, масштаб которых пока что крайне мало понятен. Призывы к регулированию ИИ звучат всё громче, но, когда с ними выступают те же самые люди, которые создали эту технологию, они начинают выглядеть частью пиар-кампании и корпоративным отвлекающим манёвром. Дело в том, что регуляторы и власти не понимают в полной мере, как работают приложения на основе ИИ, и какие риски от них исходят. Об этом знают лишь сами компании.

PS Events: Climate Week NYC 2024
image (24)

PS Events: Climate Week NYC 2024

Project Syndicate is returning to Climate Week NYC with an even more expansive program. Join us live on September 22 as we welcome speakers from around the world at our studio in Manhattan to address critical dimensions of the climate debate.

Register Now

Обязанность компаний заключается в том, чтобы гарантировать, что они не причиняют сознательно вред людям и готовы решить все созданные ими проблемы. Работа властей заключается в том, чтобы требовать от компаний выполнения своих обязательств. Но обычно ответственность возникает лишь постфактум – и это слишком поздно для технологий, подобных ИИ.

Если бы собственники компании Purdue Pharma (семья Саклер) действовали ответственно, тогда сразу после того, как они поняли опасность лекарства OxyContin, они бы предприняли шаги с целью остановить активное выписывание врачами этого лекарства. Благодаря этому можно было бы избежать опиоидного кризиса, охватившего США в последние годы. Когда в ситуацию вмешались власти, было уже поздно: множество людей уже погибло, а жизнь многих сообществ разрушена. Ни один судебный процесс или штраф не может этого исправить.

В случае с искусственным интеллектом компании могут и должны действовать лучше. Но при этом они обязаны действовать быстро, то есть до того, как приложения на основе ИИ настолько укоренятся в повседневной деятельности, что их риски станут восприниматься как нормальные, а справиться с исходящими от них угрозами будет уже невозможно.

В Nike сочетание внешнего давления с внутренним стремлением поступать правильно привело к фундаментальной перестройке всей бизнес-модели компании. Новорождённая ИИ-отрасль явно ощущает на себе внешнее давление: 21 июля Белый дом добился от семи главных ИИ-компаний обязательства разрабатывать безопасные и надёжные приложения – в соответствии с принципами проекта «Билля о правах ИИ», представленного в прошлом году. Однако туманные добровольные обязательства оставляют слишком много пространства для манёвра.

Наше коллективное будущее сегодня зависит от того, будут ли эти компании вести себя правильно, а решения об этом будут приниматься за закрытыми дверьми – в залах заседаний советов директоров, на встречах топ-менеджмента и секретных сессиях по выработке стратегии. Компаниям нужна ясная путеводная звезда, на которую они всегда смогут ориентироваться, занимаясь инновациями. В первые годы существования компании Google у неё было правильное корпоративное кредо: «Не будь злом». Ни одна корпорация не должна сознательно наносить вред людям ради получения прибылей.

Компании не могут просто заявить, что они наняли на работу бывших регуляторов или предложили варианты возможных решений. Этого будет недостаточно. Компании должны разработать убедительные, эффективные планы действий в сфере искусственного интеллекта, которые будут отвечать на пять ключевых вопросов:

К решению проблемы ИИ нужно подходить так же, как к любой другой срочной корпоративной задаче. Будет вполне разумно и реалистично потребовать от компаний разработать и обязаться выполнять план действий в течение 90 дней. Никаких отговорок и извинений. Сорванные сроки должны наказываться высокими штрафами. План не должен быть идеальным (и его, скорее всего, придётся регулярно обновлять по мере того, как мы продолжаем узнавать новое о ИИ), но абсолютно необходимо обязаться его выполнять.

Для крупных технологических компаний защита людей должна быть не меньшим приоритетом, чем получение максимальной прибыли. Если их единственным интересом будет извлечение прибыли, тогда у всех нас возникнут серьёзные проблемы.

https://prosyn.org/kMccwUQru