Нажмите "Enter" для перехода к содержанию

Илон Маск хочет использовать ИИ для управления правительством США, но эксперты говорят, что это «очень плохая» идея

По мнению экспертов, использование искусственного интеллекта государством может пойти не по плану по многим причинам, в том числе из-за отсутствия прозрачности при обучении инструментов.

Маск уволил десятки тысяч сотрудников федерального правительства через свой Департамент эффективности государственного управления (DOGE) и, как сообщается, требует, чтобы оставшиеся работники еженедельно отправляли в департамент электронное письмо с пятью пунктами, описывающими их достижения за неделю.

Поскольку это, без сомнения, приведёт к тому, что DOGE будет получать сотни тысяч таких электронных писем, Маск полагается на искусственный интеллект, который будет обрабатывать ответы и помогать определять, кто должен остаться на работе. Сообщается, что частью этого плана также является замена многих государственных служащих системами искусственного интеллекта.

Пока неясно, как выглядят и работают эти системы ИИ — демократы в Конгрессе США требуют разъяснений, — но эксперты предупреждают, что использование ИИ в федеральном правительстве без тщательного тестирования и проверки этих инструментов может привести к катастрофическим последствиям.

«Чтобы использовать инструменты ИИ ответственно, они должны быть разработаны с определённой целью. Их нужно тестировать и проверять. Неясно, делается ли это в данном случае», — говорит Кэри Кольянезе, профессор права и политологии в Пенсильванском университете.

Кольянезе говорит, что если ИИ используется для принятия решений о том, кого следует уволить, то он «очень скептически» относится к такому подходу. Он говорит, что существует реальная вероятность ошибок, предвзятости ИИ и других потенциальных проблем.

«Это очень плохая идея. Мы ничего не знаем о том, как ИИ будет принимать такие решения [включая то, как он был обучен и какие алгоритмы лежат в его основе], на каких данных будут основываться такие решения и почему мы должны верить, что ему можно доверять», — говорит Шобита Партхасарати, профессор государственной политики в Мичиганском университете.

Эти опасения, похоже, не останавливают нынешнее правительство, особенно с учётом того, что Маск — бизнесмен-миллиардер и близкий советник президента США Дональда Трампа — возглавляет эти усилия.

Государственный департамент США, например, планирует использовать искусственный интеллект для сканирования аккаунтов иностранных граждан в социальных сетях, чтобы выявлять тех, кто может поддерживать ХАМАС и аннулировать их визы. Правительство США пока не раскрывает информацию о том, как могут работать подобные системы.

Незамеченные вредные факторы

«Администрация Трампа действительно заинтересована в развитии ИИ любой ценой, и я бы хотела видеть справедливое и равноправное использование ИИ, — говорит Хильке Шеллманн, профессор журналистики в Нью-Йоркском университете и эксперт по искусственному интеллекту. — Может быть нанесён большой вред, который останется незамеченным».

Эксперты в области ИИ говорят, что существует множество способов, которыми правительство может злоупотребить ИИ, поэтому его нужно внедрять осторожно и продуманно. Кольянезе говорит, что у правительств по всему миру, в том числе в Нидерландах и Великобритании, были проблемы с плохо реализованным ИИ, который может допускать ошибки или проявлять предвзятость и в результате, например, неправомерно отказывать жителям в социальных пособиях, в которых они нуждаются.

В США в штате Мичиган возникла проблема с искусственным интеллектом, который использовался для выявления мошенничества в системе выплат по безработице. ИИ ошибочно выявил тысячи случаев предполагаемого мошенничества. Многих из тех, кому было отказано в пособиях, сурово наказали, в том числе наложили множество штрафов и обвинили в мошенничестве. Людей арестовывали и даже объявляли банкротами. Спустя пять лет штат признал, что система была неисправна, и год спустя вернул 21 миллион долларов жителям, которых ошибочно обвинили в мошенничестве.

«В большинстве случаев чиновники, закупающие и внедряющие эти технологии, мало знают о том, как они работают, об их предубеждениях и ограничениях, а также об ошибках, — говорит Партасарати. — Поскольку сообщества с низким уровнем дохода и другие маргинализированные сообщества, как правило, чаще всего контактируют с правительством через социальные службы [такие как пособия по безработице, патронатное воспитание, правоохранительные органы], они чаще всего страдают от проблемного ИИ».

ИИ также создавал проблемы в правительстве, когда его использовали в судах для определения того, может ли человек рассчитывать на условно-досрочное освобождение, или в полицейских участках, когда его использовали для прогнозирования мест, где может произойти преступление.

Шеллманн говорит, что ИИ, используемый полицейскими управлениями, обычно обучается на исторических данных этих управлений и это может привести к тому, что ИИ будет рекомендовать усилить охрану в районах, которые уже давно находятся под усиленной охраной, особенно в цветных сообществах.

ИИ ничего не понимает

Одна из проблем, связанных с потенциальным использованием ИИ для замены работников в федеральном правительстве, заключается в том, что в правительстве существует множество различных должностей, требующих особых навыков и знаний. Например, работа ИТ-специалиста в Министерстве юстиции может сильно отличаться от работы в Министерстве сельского хозяйства, даже если у них одинаковые должности. Таким образом, программа ИИ должна быть сложной и хорошо обученной, чтобы хотя бы посредственно заменить работника-человека.

«Я не думаю, что можно просто так уволить людей, а затем [заменить их любым ИИ], — говорит Кольянезе. — Задачи, которые выполняли эти люди, часто были узкоспециализированными и конкретными».

Шеллманн говорит, что вы можете использовать ИИ для выполнения тех частей работы, которые могут быть предсказуемыми или повторяющимися, но вы не можете полностью заменить кого-то. Теоретически это было бы возможно, если бы вы потратили годы на разработку подходящих инструментов ИИ для выполнения множества самых разных видов работ. Это очень сложная задача, и правительство, похоже, не занимается этим в настоящее время.

«У этих специалистов есть реальный опыт и детальное понимание проблем, которых нет у ИИ. ИИ на самом деле ничего не «понимает, — говорит Партасарати. — Это использование вычислительных методов для поиска закономерностей на основе исторических данных. Поэтому он, скорее всего, будет иметь ограниченную полезность и даже усиливать исторические предубеждения».

В 2023 году администрация бывшего президента США Джо Байдена издала указ, направленный на ответственное использование ИИ в правительстве и на то, как ИИ будет тестироваться и проверяться, но этот указ был отменён администрацией Трампа в январе. Шелманн говорит, что из-за этого стало менее вероятно, что ИИ будет использоваться ответственно в правительстве или что исследователи смогут понять, как используется ИИ.

При всём этом, если ИИ разрабатывается ответственно, он может быть очень полезным. ИИ может автоматизировать повторяющиеся задачи, чтобы работники могли сосредоточиться на более важных вещах, или помочь работникам решить проблемы, с которыми они сталкиваются. Но для правильного внедрения ИИ требуется время.

«Это не значит, что мы не можем использовать инструменты ИИ с умом, — говорит Кольянезе. — Но правительства сбиваются с пути, когда пытаются торопиться и делать что-то быстро без должного участия общественности и тщательной проверки того, как на самом деле работает алгоритм».

Источник на английском языке — www.aljazeera.com

Источник