В нашем последнем блоге мы исследовали возможности ИИ для общего блага, указав на несколько инициатив по поиску действенных решений для продвижения справедливых и беспристрастных систем ИИ. По данным FCC, самой большой проблемой является подключение людей и распространение знаний и ресурсов среди тех, у кого нет доступа к Интернету — около 19 миллионов американцев.

Недалеко от проблемы доступности стоит необходимость переподготовки тех, чья работа была заменена технологиями. По этим и другим причинам разработчики и менеджеры должны понимать принципы ИИ для общего блага, без эксплуатации.

1. Совершенствование механизмов подотчетности

Нашим приоритетом должна быть необходимость тщательного изучения систем ИИ, которые способствуют подотчетности и обеспечивают надлежащее применение технологий. Вместо того, чтобы мириться с неясностью, разработчики и специалисты по данным должны сотрудничать, чтобы сделать алгоритмы более прозрачными. Мы можем сделать это с помощью стратегии, которая включает в себя:

А. Качественный анализ и исследование

B. Тестирование черного ящика

C. Обзор данных обучения и

D. Анализ кода

Е. Журналистика

А. Качественный анализ (или вопросы и ответы)

Качественное исследование, в котором используются более формальные и строгие методы для анализа того, как функция алгоритмов требует дальнейшего изучения. Такие методы, как этнография, также позволяют исследователям идентифицировать системные предположения, цель, любые неявные политики, поддерживаемые ее методами, и различные части, составляющие ее структуру.

Б. Тестирование черного ящика

Неотъемлемым первым шагом является наличие прямого доступа к входным и результирующим выходным данным, с помощью которых исследователи пытаются создать имитирующие системы, приближенные к модели.

С. Просмотр данных

Важным аспектом проверки является возможность изучить данные обучения и понять их свойства, такие как их размер, происхождение и особенности, а также любые изменения в них за период их использования. Доступ к этим данным позволяет тем, кто исследует алгоритм, определить, подходят ли данные для предполагаемого использования и достаточно ли их существует — и в правильных пропорциях — для поддержки требуемых алгоритмов прогнозирования.

Д. Анализ кода

Тщательный анализ корня исходного кода или статистической модели, лежащей в основе алгоритма, известный как тестирование белого ящика, жизненно важен для улучшения механизмов подотчетности. В дополнение к выявлению системных ошибок проверка кода может использоваться для анализа общего поведения системы, включая данные, к которым она получила доступ, ее входные данные и их веса, выполненные расчеты, ход выполнения ее деревьев решений и ее ошибки. .

Э. Журналистика

Подчеркивая негативное влияние непрозрачных алгоритмов на общество, журналисты могут значительно повысить осведомленность о необходимости справедливости в отношении регулирующих органов и политиков. Журналистские расследования могут освещать интересующие алгоритмические системы, раскрывать назначение этих алгоритмов, анализировать подсистемы, из которых состоят алгоритмы, и выступать за разработку политики, регулирующую разработку и реализацию алгоритмов.

Даже при предоставленном уровне доступа к исходному коду или статистической модели рецензенты могут испытывать трудности с их полным пониманием. Причина в том, что «даже опытные эксперты могут пропустить простые проблемы, скрытые в сложном коде». На самом деле, «может быть необходимо увидеть программу, работающую в дикой природе, с реальными пользователями и данными, чтобы понять ее эффекты».

2. Преимущества LAWS (смертоносные автономные системы вооружения)

Возможно, по иронии судьбы, ИИ для общего блага также играет роль на поле боя. ВМС и ВВС США часто размещают беспилотные летательные и военно-морские аппараты (дроны) в воздухе и на море. Задачи воздушного наблюдения, сбора и анализа разведывательных данных, а также обнаружения биологического и химического оружия выгодны для машин с искусственным интеллектом, поскольку они заменяют людей в этих опасных военных ситуациях.

Точно так же армия США стремится применять ИИ и робототехнику в полевых операциях (на местности, на которой эти технологии никогда не работали) и к которой их создатели не имели доступа. Добавляя оценки сопутствующего ущерба в эти списки целей ИИ, эти подразделения вооруженных сил надеются увеличить преимущества ИИ в войне.

Тем не менее, проблемы по-прежнему возникают из-за непреднамеренных последствий передачи такой власти под контроль алгоритмов, включая возможность причинения побочного ущерба, который люди не могут предсказать. Также возникает множество этических вопросов, например, может ли вредоносное ПО, внедренное в LAWS, вызвать преждевременное или неправильное развертывание. Или можно ли привлечь автономный ИИ к ответственности за действия или проступки, совершенные во время ведения войны.

Точно так же, как ИИ может быть инструментом общего блага, его также можно использовать во вред. Итог — ИИ не следует использовать в LAWS без полной прозрачности и подотчетности. Просто слишком многое поставлено на карту.