Определение этической стратегии ИИ

Согласно отчету Центра управления ИИ при Оксфордском университете за 2019 год, 82% американцев считают, что с роботами и ИИ нужно тщательно обращаться. 

Вызываемые опасения варьировались от того, как ИИ используется в наблюдении и распространении поддельного контента в Интернете (известных как глубокие подделки, когда они включают в себя подделанные видеоизображения и звук, созданные с помощью ИИ), до кибератак, нарушений конфиденциальности данных, предвзятости при найме на работу, автономных транспортных средств, и дроны, которым не нужен человеческий контроллер

Что происходит, когда несправедливость распространяется не отдельными людьми или организациями, а совокупностью  машин? В последнее время повышенное внимание уделяется недостаткам искусственного интеллекта и вреду, который он может причинить нашему обществу, от неравного доступа к возможностям до эскалации поляризации в наших сообществах. Неудивительно, что возникла соответствующая вспышка дискуссий о том, как регулировать ИИ.

ИИ  уже публично показал себя способным к неправильным предубеждениям, что может привести к несправедливым решениям, основанным на характеристиках, защищенных законом. Во входных данных может быть смещение, которое может быть плохо отобранным, устаревшим или искаженным, что отражает наши собственные исторические общественные предрассудки. Большинство развернутых систем искусственного интеллекта еще не встраивают методы, позволяющие подвергнуть наборы данных проверке на справедливость или иным образом компенсировать проблемы в сырье.

Также может быть предвзятость в самих  алгоритмах  и в том, какие функции они считают важными (или нет). Например, компании могут изменять цены на свои продукты на основе информации о покупательском поведении. Если эта информация в конечном итоге напрямую связана с полом или расой, то ИИ принимает решения, которые могут привести к кошмару пиара, не говоря уже о юридических проблемах. По мере увеличения масштабов использования этих систем ИИ они усиливают любую несправедливость в них. Решения, которые выводятся этими системами и которым люди затем подчиняются, могут в конечном итоге распространиться до такой степени, что предубеждения станут глобальной истиной.

Беспорядки по поводу внедрения AI Ethics

Конечно, отдельные компании также взвешивают, в каких этических рамках они будут работать. Президент Microsoft Брэд Смит писал о необходимости государственного регулирования и корпоративной ответственности в отношении технологии распознавания лиц. Совет консультативного совета Google установил  этику ИИ. Ранее в этом году Amazon начала сотрудничество с National Science.

Хотя нам еще предстоит прийти к определенным выводам в отношении технических правил, за последние три года произошло резкое увеличение количества форумов и каналов для обсуждения управления. 

В США администрация Обамы опубликовала в 2016 году отчет о подготовке к будущему искусственного интеллекта после проведения открытых семинаров, посвященных изучению ИИ, права и управления; Технология AI, безопасность и контроль; и даже о социальных и экономических последствиях ИИ. 

Институт инженеров по электротехнике и радиоэлектронике (IEEE), профессиональная организация в области инженерии, вычислений и технологий, которая устанавливает стандарты для максимальной надежности продуктов, составил глобальный краудсорсинговый трактат по этике автономных и интеллектуальных систем в академическом мире.

Чтобы присоединиться к разговору, корпорации создают свои собственные консорциумы. Партнерство по ИИ на благо людей и общества было основано группой исследователей ИИ, представляющих шесть крупнейших мировых технологических компаний: Apple, Amazon, DeepMind / Google, Facebook, IBM и Microsoft. Он был создан для определения лучших практик ИИ, в том числе построения справедливого, прозрачного и подотчетного ИИ. 

Сейчас у него более 80 компаний-партнеров. Фонд для финансирования исследований, направленных на повышение справедливости в ИИ, хотя некоторые сразу же поставили под сомнение потенциальный конфликт интересов, связанный с финансированием исследований таким гигантским игроком в этой области.

Не за горами ли правила передачи данных?

Необходимо разработать глобальный взгляд на этику ИИ. В разных обществах по всему миру очень разные взгляды на конфиденциальность и этику. 

В Европе, например, граждане Великобритании готовы терпеть наблюдение с помощью видеокамер на центральной улице Лондона, возможно, из-за прошлых взрывов ИРА, в то время как немцы гораздо больше ориентированы на конфиденциальность под влиянием бывших вторжений восточногерманских шпионов Штази.

В Китае общественность терпимо относится к приложениям, основанным на искусственном интеллекте, таким как распознавание лиц и социальные кредитные рейтинги, по крайней мере, отчасти потому, что социальный порядок является ключевым принципом конфуцианской моральной философии. 

Исследовательский проект Microsoft по этике ИИ включает этнографический анализ различных культур, собранный путем тщательного наблюдения за поведением и рекомендаций внешних ученых, таких как Эрин Мейер из INSEAD. 

В конце концов, можно было предвидеть, что будет сборник правил использования ИИ и связанных с ним технологий. Некоторые из них уже появились, благодаря избеганию алгоритмической предвзятости к моделированию прозрачности для конкретных приложений, таких как прогнозирующая политика.

Более длительный подход заключается в том, что, хотя стандарты ИИ не являются первоклассной работой, они имеют решающее значение для того, чтобы сделать ИИ не только более полезным, но и безопасным для использования потребителями. 

Учитывая, что ИИ все еще молод, но быстро внедряется в каждое приложение, которое влияет на нашу жизнь, мы могли бы предусмотреть ряд руководящих принципов этики ИИ от нескольких стран для ИИ, которые, как ожидается, приведут к среднесрочным и долгосрочным рекомендациям политики в отношении ИИ. проблемы и возможности.

На картах главный специалист по этике ИИ?

По мере того как компании вкладывают ресурсы в разработку следующего поколения инструментов и продуктов на базе ИИ, люди не склонны предполагать, что эти компании автоматически возьмут на себя этические и юридические обязательства, если эти системы выйдут из строя.

Время, когда предприятия могли просто просить мир доверять искусственному интеллекту и продуктам на базе ИИ, давно прошло. Доверие к ИИ требует справедливости, прозрачности и ответственности. Но даже исследователи ИИ не могут прийти к единому определению справедливости: всегда возникает вопрос, кто входит в затронутые группы и какие показатели следует использовать для оценки, например, влияния предвзятости в алгоритмах.

Поскольку организации еще не выяснили, как остановить волну «плохого» ИИ, их следующий лучший шаг - внести свой вклад в обсуждение. Отрицание существования плохого ИИ или уклонение от обсуждения не решит проблему. 

Выявление CXO, желающих участвовать в диалоге, и поиск людей, желающих помочь в установлении стандартов, - вот действия, о которых организациям следует думать сегодня. Появляется аспект главного директора по этике ИИ: проповедовать, просвещать, гарантировать, что предприятия осведомлены об этике ИИ и вовлечены в нее.

Если все сделано правильно, ИИ может предложить неизмеримое благо. Он может предоставлять образовательные мероприятия для максимального обучения в недостаточно обслуживаемых сообществах, улучшать здравоохранение на основе доступа к нашим личным данным и помогать людям выполнять свою работу лучше и эффективнее. Сейчас не время тормозить прогресс. Вместо этого настало время для предприятий приложить согласованные усилия к тому, чтобы разработка и развертывание ИИ были справедливыми, прозрачными и подотчетными для всех заинтересованных сторон, а также принять участие в формировании будущих стандартов и правил, которые заставят ИИ работать на все

https://www.xtechalpha.com/2019/11/07/the-dark-side-of-ai-algorithm-bias-influenced-decision-making-defining-ai-ethics-strategy/