Невидимый фронт: кто стоит за обучением искусственного интеллекта

Когда речь заходит о новинках технологических гигантов, таких как ChatGPT, создается впечатление, что данные, на которых учится искусственный интеллект, обрабатываются автоматически, без участия специалистов. О том, почему это довольно распространенное заблуждение выгодно руководству крупных технологических компаний, и как человечность все же побеждает, рассказывается в статье The Atlantic.

На фоне ярких заявлений о чуде искусственного интеллекта, скромный труд людей, которые оценивают и обучают ИИ, заметно теряется. Несмотря на важность этой работы для генеративного ИИ и технологической экономики в целом, эти сотрудники почти никогда не упоминаются в прогнозах технологических компаний о расцвете новой эпохи.

Магнаты ИИ описывают свои продукты как силы, сходные с электричеством или ядерной реакцией, как          чудо природы, ждущее своего открытия, и говорят о машинах, которые учатся и растут сами, как дети.

Человеческая сторона создания алгоритмов, как правило, сводится к неясным описаниям «аннотаций» и «тестов качества», а время и энергия, затрачиваемые на эти аннотации, не учитываются.

Одна из таких незаметных работников — Мишель Кертис, мать двоих детей, которая выкраивает пару часов для работы по будням и восемь часов по выходным. Кертис работает в компании Appen, которая по субподряду с Google оценивает результаты работы ИИ-продуктов и поискового алгоритма технологического гиганта. Бесчисленное множество людей по всему миру выполняют подобную работу в Google, OpenAI, создающей ChatGPT, и других технологических компаниях. Они играют важнейшую роль в разработке чат-ботов, поисковых систем, лент социальных сетей и систем таргетированной рекламы — все это главные составляющие цифровой экономики.

Задачи Кертис в том, чтобы оценить полезность предложенных ссылок, проверить точность описания богомола, сделанного ИИ, или решить, какое из двух стихотворений, написанных чат-ботом на день рождения, лучше. По ее словам, заранее неизвестно, что именно ей придется оценивать, а для задач, связанных с ИИ, которые составляют основную часть работы, мало указаний и недостаточно времени, чтобы сделать все тщательно.

К сожалению, этот труд изнурителен, низко оплачиваем, а инструкции весьма туманны. На каждое задание, связанное с оценкой результатов работы ИИ, Кертис получает пару предложений запутанных инструкций и всего несколько минут, чтобы полностью их усвоить, прежде чем закончится время, отведенное на выполнение задания. При этом Кертис чувствует повышенную моральную ответственность за максимально точную оценку ответов ИИ.

Между тем этот «незаметный труд» критически важен для отрасли. Техническое название такой работы — обучение с подкреплением и обратной связью от человека, или RLHF. После того как чат-бот обработал огромное количество текста, обратная связь от человека помогает доработать его.

ChatGPT впечатляет тем, что его использование похоже на общение с человеком, но это ощущение не может возникнуть естественным путем, когда он просто поглощает данные.

«Машины не имеют никакого чувства контекстного понимания, не способны разобрать, похож ли текст, созданный искусственным интеллектом, на то, что написал бы человек, или нет, — объясняет Сара Майерс Уэст, управляющий директор независимой исследовательской организации AI Now Institute. — Это могут сделать только живые люди».

Использование человеческих оценок для улучшения алгоритмических продуктов — довольно старая практика: Google и Facebook (запрещен в России) используют их почти десять лет, если не больше, при разработке поисковых систем, таргетированной рекламы и других продуктов, по словам Саши Лучиони, исследователя ИИ в компании Hugging Face, специализирующейся на машинном обучении. Однако крупные технологические компании характеризуют работу оценщиков лишь как один из многих важных аспектов создания передовых продуктов ИИ. В OpenAI подчеркивают, что обучение на огромных объемах текста, а не RLHF, составляет большую часть возможностей GPT-4.

По словам Лучиони, целенаправленная обратная связь с человеком стала единственным наиболее значимым изменением, которое сделало современные модели ИИ столь совершенными, позволив перейти от бессмысленных писем GPT-2 к убедительным эссе GPT-4. Она и другие исследователи утверждают, что технологические компании намеренно преуменьшают важность обратной связи с человеком. По словам Майерс Уэст, такое замалчивание скрывает некоторые из самых неприглядных элементов этих технологий, таких как вызывающий тревогу контент и дезинформация, которые приходится выявлять людям, не говоря уже о том, в каких условиях они работают. Даже если отбросить эти элементы, описание степени вмешательства человека рискует развеять волшебную и привлекательную иллюзию интеллектуальных машин. «Это эффект волшебника страны Оз», — считает Лучиони.

В какой-то степени значимость оценок ИИ людьми проявляется в том, что в них вливаются деньги. Одна из компаний, нанимающая людей для проведения RLHF и аннотирования данных, в 2021 году оценивалась более чем в 7 млрд. долларов, а ее генеральный директор недавно дал прогноз, что в скором времени компании, занимающиеся разработкой ИИ, будут тратить миллиарды долларов на RLHF, аналогично инвестициям в вычислительные мощности.

Однако все эти деньги, похоже, редко доходят до людей, выполняющих незаметный труд. Работникам в Африке платят всего 1,5 доллара в час за проверку данных на предмет наличия в них тревожного контента. Некоторые исполнители в США могут заработать всего пару долларов сверх минимальной заработной платы за повторяющуюся, изнурительную и бессмысленную работу. Стресс, низкая зарплата, минимум инструкций, непоследовательность заданий и сжатые сроки — вот рецепт человеческой ошибки, считают специалисты по оценке ИИ и многочисленные независимые эксперты. Их данные показывают, например, что на выполнение некоторых заданий у ИИ-специалистов Google уходит не более трех минут, и что они оценивают ответы, требующие точных оценок, например, как безопасно дозировать лекарства.

Поэтому работникам приходится самим заявлять о своих правах и потребностях: в 2021 году специалисты по оценке Appen объединились в профсоюз, чтобы добиться большего признания и компенсации. Спустя какое-то время компания уволила некоторых членов профсоюза, но потом вновь вынуждена была их нанять.

То, что поставщики ИИ будут скрывать человеческий труд, лежащий в основе их продукции, вполне предсказуемо. Значительная часть данных, на которых строятся модели искусственного интеллекта, маркируется людьми, получающими низкую зарплату, многие из этих людей живут в развивающихся странах. Доставка товаров Amazon дешева отчасти потому, что условия труда на складах компании компенсируют ее. Социальные сети являются удобными и востребованными благодаря армиям модераторов контента, которые также в основном находятся за пределами развитого мира.

Парадоксально, но одним из важнейших видов человеческого труда, который программы искусственного интеллекта оказались не в состоянии автоматизировать, является обучение.

Человеческая субъективность и предвзятость уже давно перекочевали в алгоритмы, и эти недостатки означают, что машины могут оказаться неспособными к самосовершенствованию.

Различные попытки обучить модели ИИ с помощью других моделей ИИ привели к появлению новых предубеждений и ухудшению производительности, хотя некоторые из них в чем-то оказались успешными. Армуган Ахмад отмечает, что такие эксперименты могут быть опасными: «Использование ИИ для обучения ИИ может привести к тяжелым последствиям, поскольку это влияет на жизнеспособность и надежность этой технологии». Технологическая индустрия до сих пор не смогла отказаться от главного компонента работы — людей. Даже на фоне бума генеративных ИИ человечность не так легко победить.