В нашем последнем блоге мы исследовали возможности ИИ для общего блага, указав на несколько инициатив по поиску действенных решений для продвижения справедливых и беспристрастных систем ИИ. По данным FCC, самой большой проблемой является подключение людей и распространение знаний и ресурсов среди тех, у кого нет доступа к Интернету — около 19 миллионов американцев.
Недалеко от проблемы доступности стоит необходимость переподготовки тех, чья работа была заменена технологиями. По этим и другим причинам разработчики и менеджеры должны понимать принципы ИИ для общего блага, без эксплуатации.
1. Совершенствование механизмов подотчетности
Нашим приоритетом должна быть необходимость тщательного изучения систем ИИ, которые способствуют подотчетности и обеспечивают надлежащее применение технологий. Вместо того, чтобы мириться с неясностью, разработчики и специалисты по данным должны сотрудничать, чтобы сделать алгоритмы более прозрачными. Мы можем сделать это с помощью стратегии, которая включает в себя:
А. Качественный анализ и исследование
B. Тестирование черного ящика
C. Обзор данных обучения и
D. Анализ кода
Е. Журналистика
А. Качественный анализ (или вопросы и ответы)
Качественное исследование, в котором используются более формальные и строгие методы для анализа того, как функция алгоритмов требует дальнейшего изучения. Такие методы, как этнография, также позволяют исследователям идентифицировать системные предположения, цель, любые неявные политики, поддерживаемые ее методами, и различные части, составляющие ее структуру.
Б. Тестирование черного ящика
Неотъемлемым первым шагом является наличие прямого доступа к входным и результирующим выходным данным, с помощью которых исследователи пытаются создать имитирующие системы, приближенные к модели.
С. Просмотр данных
Важным аспектом проверки является возможность изучить данные обучения и понять их свойства, такие как их размер, происхождение и особенности, а также любые изменения в них за период их использования. Доступ к этим данным позволяет тем, кто исследует алгоритм, определить, подходят ли данные для предполагаемого использования и достаточно ли их существует — и в правильных пропорциях — для поддержки требуемых алгоритмов прогнозирования.
Д. Анализ кода
Тщательный анализ корня исходного кода или статистической модели, лежащей в основе алгоритма, известный как тестирование белого ящика, жизненно важен для улучшения механизмов подотчетности. В дополнение к выявлению системных ошибок проверка кода может использоваться для анализа общего поведения системы, включая данные, к которым она получила доступ, ее входные данные и их веса, выполненные расчеты, ход выполнения ее деревьев решений и ее ошибки. .
Э. Журналистика
Подчеркивая негативное влияние непрозрачных алгоритмов на общество, журналисты могут значительно повысить осведомленность о необходимости справедливости в отношении регулирующих органов и политиков. Журналистские расследования могут освещать интересующие алгоритмические системы, раскрывать назначение этих алгоритмов, анализировать подсистемы, из которых состоят алгоритмы, и выступать за разработку политики, регулирующую разработку и реализацию алгоритмов.
Даже при предоставленном уровне доступа к исходному коду или статистической модели рецензенты могут испытывать трудности с их полным пониманием. Причина в том, что «даже опытные эксперты могут пропустить простые проблемы, скрытые в сложном коде». На самом деле, «может быть необходимо увидеть программу, работающую в дикой природе, с реальными пользователями и данными, чтобы понять ее эффекты».
2. Преимущества LAWS (смертоносные автономные системы вооружения)
Возможно, по иронии судьбы, ИИ для общего блага также играет роль на поле боя. ВМС и ВВС США часто размещают беспилотные летательные и военно-морские аппараты (дроны) в воздухе и на море. Задачи воздушного наблюдения, сбора и анализа разведывательных данных, а также обнаружения биологического и химического оружия выгодны для машин с искусственным интеллектом, поскольку они заменяют людей в этих опасных военных ситуациях.
Точно так же армия США стремится применять ИИ и робототехнику в полевых операциях (на местности, на которой эти технологии никогда не работали) и к которой их создатели не имели доступа. Добавляя оценки сопутствующего ущерба в эти списки целей ИИ, эти подразделения вооруженных сил надеются увеличить преимущества ИИ в войне.
Тем не менее, проблемы по-прежнему возникают из-за непреднамеренных последствий передачи такой власти под контроль алгоритмов, включая возможность причинения побочного ущерба, который люди не могут предсказать. Также возникает множество этических вопросов, например, может ли вредоносное ПО, внедренное в LAWS, вызвать преждевременное или неправильное развертывание. Или можно ли привлечь автономный ИИ к ответственности за действия или проступки, совершенные во время ведения войны.
Точно так же, как ИИ может быть инструментом общего блага, его также можно использовать во вред. Итог — ИИ не следует использовать в LAWS без полной прозрачности и подотчетности. Просто слишком многое поставлено на карту.