Мы на пороге ужасающих потрясений, вызванных слиянием Biotech и Infotech, или эти прогнозы все еще являются примером истерии без реальных оснований, учитывая отсутствие определенности даже в среднесрочной перспективе? Где мы находимся с точки зрения регулирования и этики для защиты гонки вооружений и прав человека?

Предпосылки и контекст

В любом случае, мы наблюдаем определенное оживление с точки зрения регулирования ИИ, которое гораздо более замаскировано в США, Северной Корее или путинской России, особенно с точки зрения безудержной гонки вооружений.

Искусственный интеллект может быть полезен в широком спектре секторов, таких как здравоохранение, потребление энергии, безопасность транспортных средств, сельское хозяйство, изменение климата и управление финансовыми рисками. Он также может способствовать обнаружению мошенничества и угроз кибербезопасности и позволяет правоохранительным органам более эффективно бороться с преступностью.



Однако это поднимает новые проблемы для будущего работы и поднимает правовые и этические вопросы. Но перед лицом всех этих вопросов, которые находятся вне досягаемости лиц, принимающих решения, в наших демократических обществах было более чем необходимо определить основные стратегические направления действий, чтобы заставить государства и обычных граждан-потребителей на страже.

На данном этапе Европейский Союз недавно опубликовал набор рекомендаций и правил по разработке этичных и ответственных приложений искусственного интеллекта. Эта работа, выполненная группой из примерно пятидесяти экспертов, вполне согласуется, напоминая об основных этических принципах, которыми руководствуется в этой области.

Как The Verge иронизирует: «большинство предложений немного абстрактны и основаны на расплывчатых и общих принципах.

Возможно, эта ирония возникла из-за неправильного понимания европейской правовой системы и явно более чем очевидного отсутствия определенности в среднесрочной перспективе.

Действительно, чем шире предложения, тем больше они позволяют правовой системе более точно адаптироваться к случаям, которые были непредсказуемы в то время, когда были приняты принципы / рекомендации. Этот судебный силлогизм неприменим в англосаксонских или американских судебных системах, где все должно быть спланировано и зафиксировано заранее, рискуя легче попасть в правовой вакуум, учитывая скорость технологических изменений . Но реальность намного разнообразнее!

Что говорит нам этика?

Немецкий философ и этик Томас Метцингер был одним из философов, участвовавших в этой комиссии. В немецкой газете Der Tagesspiegel он публикует статью, в которой задается вопросом, не принял ли он окончательно участие в мытье окружающей этики, т.е. оправдать форму этики, которая на самом деле не такова!

С самого начала он признает:

« Результатом является компромисс, которым я не горжусь, но, тем не менее, лучший в мире в этой области

Фактически, Соединенные Штаты или Китай, лидеры в области искусственного интеллекта, не опубликовали руководящих принципов, регулирующих ИИ, НИОКР и разработки.

Эти первые принципы, хотя и несовершенные, безусловно, должны вдохновить на будущую разработку принципов соблюдения законодательства по этим вопросам и, безусловно, привести к созданию нормативно-правовой базы.

Но мы еще не там!

Пока рекомендации вялые, недальновидные и намеренно расплывчатые. Они игнорируют долгосрочные риски, скрывают сложные проблемы (например, «объяснимость») с помощью риторики, нарушают основные принципы рациональности и заявляют, что знают вещи, о которых на самом деле никто не знает .

Удивительно видеть, как этот философ объясняет, что в его рабочей группе, состоящей из 52 человек, только горстка специалистов по этике (большинство из них были политиками, представителями гражданского общества , несколько исследователей и, прежде всего, представители промышленности).

Не будьте наивны, мы очень хорошо знаем, что в будущем приложения, которые будут выпущены на рынок (например, роботы-хирурги, роботы-юристы или роботы-судьи, и многие другие уже существующие), иногда будут уже известен и держится в секрете небольшой элитой, представленной исследователями и инженерами, находящимися под контролем частных компаний, в значительной степени финансируемых для быстрого развития ИИ.

Раскрытие в рамках этой группы по этике их корпоративной тайны, несомненно, ограничило бы их пределы для маневра ... и отдалило бы их от них, чтобы высказаться о неотъемлемых и, следовательно, этических рисках их исследования.

Поэтому найти компромиссы было очень сложно!

Томас Метцингер объяснил, что его миссия ограничивалась определением красных линий, то есть «не подлежащих обсуждению» этических принципов, областей, в которые Европа должна отказаться. . Конечно, были затронуты только насущные вопросы, такие как автономное смертоносное оружие или оценка граждан государством (непоколебимые темы основных прав / прав человека).

Во время обсуждения проекта рекомендаций бывший президент Nokia, дружелюбный Пекка Ала-Пиетиля, любезно попросил его удалить упоминание« не подлежит обсуждению ”…

От обсуждения к обсуждению самой формы отчета многие представители отрасли с позитивным видением яростно настаивали на удалении ссылок на красные линии. В заключительном документе рассматриваются только критические проблемы, сведенные к набору общих принципов.

Капитализм победил этику: проблемы вернутся к нам позже, как в случае глобального потепления!

А как насчет этических вопросов?

Для Томаса Метцингера это очень конкретный пример «этического отмывания»:

« Промышленность организует и поддерживает этические дебаты, чтобы сэкономить время - отвлечь общественность и предотвратить или, по крайней мере, замедлить эффективность регулирования и разработки политики. Политики также любят создавать комитеты по этике, потому что это дает им план действий, когда, учитывая сложность проблем, они просто не знают, что делать - а это всего лишь человек ».

Другими словами, политики сохраняют свой общественный имидж, создавая комитеты по этике, не зная о них, т.е. «знающие или эксперты» в повестке дня. В то же время сама отрасль создает «этичные стиральные машины», чтобы показать, что она заботится об этих проблемах.

Facebook инвестировал в Институт этики искусственного интеллекта, финансирующий учреждение по обучению специалистов по этике искусственного интеллекта. Google совсем недавно перепутал это в ЛИОНЕ, Франция.

Google, провозгласив некоторые основные принципы, запустил российский комитет по этике, который взорвался в полете.

Для философа реален риск того, что комитеты-призраки, самореференциальные ярлыки и концептуальные этические принципы, которые несколько оторваны от практических реалий, будут развиваться повсюду.

Тем не менее, отмечает философ, перед лицом Китая или Соединенных Штатов только Европа в состоянии «взять на себя бремя» по внедрению принципов ответственности.

Несмотря на их ограниченность, эти принципы в настоящее время являются лучшим вариантом, который нам нужно продвинуть. Задача исследований и гражданского общества - взять под контроль процесс и вывести дебаты из рук только промышленности:

« Окно возможностей, в рамках которых мы можем хотя бы частично контролировать будущее ИИ и эффективно защищать философские и этические основы европейской культуры, закроется через несколько лет», предупреждает он. паникер.

Статья из Associated Press также критиковала моду на этику в области ИИ и, наконец, нежелание крупных компаний принимать четкие рамки в этой области.

Создание комитетов по этике без руководителей для обеспечения функциональной ответственности не уйдет далеко, - говорит австрийский исследователь Бен Вагнер » , директор лаборатории Privacy Lab в Венском университете.

По его мнению, эти комитеты по этике являются частью «этики стирки», поверхностных усилий, направленных только на то, чтобы успокоить общественность и законодателей и отложить принятие постановлений.

Конечно, тот факт, что многие компании изучают этот вопрос, интересен, но на данный момент у всех есть свобода выбора, какие принципы следует интегрировать или нет в свои бизнес-решения.

В настоящее время сотрудники этих крупных компаний обладают наибольшим влиянием в этих вопросах: внутренняя критика бросила вызов комитету по этике Google, что привело компанию к расторгнуть договор о мониторинге, подписанный с Пентагоном для анализа изображений с дронов.

Бен Вагнер также интересовался, как предотвратить злоупотребление этикой. С этой целью в нем подчеркивается необходимость регулярного внешнего участия с участием всех заинтересованных сторон.

Он указывает на важность для компаний:

  • установить внешний и независимый механизм контроля,
  • обеспечить прозрачные процессы принятия решений, которые объясняют и мотивируют принятые решения,
  • разработать стабильный перечень норм, ценностей и обоснованных прав,
  • обеспечить, чтобы этический вопрос не ограничивался и не заменял вопрос уважения основных прав или прав человека,
  • четко определить связь между взятыми обязательствами и существующей правовой или нормативной базой, особенно в тех случаях, когда они противоречат друг другу.

По мнению Вагнера, когда этика рассматривается как альтернатива регулированию или как замена фундаментальным правам, страдают этика, закон и технологии.

Если мы правильно понимаем комментарии Вагнера, этические положения не должны ограничиваться общими принципами, а должны быть трансформированы в конкретные положения для защиты ценностей общества, как предлагает DGMP.

Для лучшего понимания:



Искусственный интеллект: проблемы до появления« глубокого обучения .
Искусственный интеллект - популярная область, имеющая долгую историю, но продолжающая расти и меняться. Это… medium.com »



Для дизайнера Молли Райт Стинсон на конференции по интерактивному дизайну мы можем определить десятки наборов инструментов, принципов, кодексов поведения, рамок, манифестов и этических клятв…. Но этика - это не просто применение правильной дорожной карты к продукту или соблюдение принципов на практике.

В своей презентации Молли Райт Стинсон указала на статью в Forbes magazine в 2006 году, которая показала, что мода для офицеров по этике не совсем так. новый. Но что в 2006 году, как и в 2019 году, принципы и комитеты ничего не могут сделать, если компания не решит проблему глобально.

Фундаментальная слабость этого стремительного роста комитетов по этике в технологических компаниях, - говорит специалист по ИИ, Рамман Чоудхури: отсутствие прозрачности.

Многие научно-исследовательские или медицинские учреждения давно создали комитеты по этике, которые защищают общественные интересы по отношению к учреждениям, которые их учредили. Однако в случае крупных технологических компаний интересы, представляемые этими комитетами, не столь ясны.

Каковы возможности мониторинга консультативных комитетов по этике, если они не могут вносить изменения в функционирование контролируемых ими структур или обращаются к общественности?

Компания Google создала свою этическую хартию только после того, как ее сотрудники возразили против ее контракта с Пентагоном. IBM также выступила с этическими инициативами, но это не помешало компании работать с филиппинской полицией над инструментами мониторинга:

«Интерес компаний к этическим алгоритмам до сих пор не мешал им поддерживать глубоко неэтичные причины».

Между тем, как напоминает статья в The Verge, у законодательства все же есть некоторые преимущества. И существующие правовые механизмы могут быть мобилизованы для оспаривания алгоритмических решений, поскольку Министерство жилищного строительства США только что подало в суд на Facebook за дискриминацию, потому что его система рекламного таргетинга позволяет рекламодателям недвижимости исключать людей по цвету кожи, религии или месту жительства из их объявления о недвижимости.

Является ли решение ИИ законодательным или судебным?

Информационный бюллетень по алгоритмам из Technology Review - Закона об алгоритмической ответственности, принятого в 2019 году, позволяет:

  • регулировать алгоритмы путем возложения на крупные компании обязательства оценивать предвзятость своих систем,
  • путем наделения Федеральной торговой комиссии полномочиями возбуждать дела, ведущие к осуждению, в частности, дискриминирующих компаний.

Этот закон направлен на то, чтобы требовать от крупных алгоритмических компаний оценки предвзятости в их системах с помощью аудитов или отчетов о воздействии.

Другие сенаторы США также предложили специальный закон о распознавании лиц, требующий явного согласия на обмен данными распознавания лиц.

Для Мутале Нконде, исследователя из Исследовательского института данных и общества, занимающегося разработкой этих регуляторных процессов, Закон об алгоритмической отчетности является частью более широкой стратегии по установлению регулирующего надзора за всеми процессами искусственного интеллекта. и продукты будущего.

Он объявляет о будущем законопроекте о распространении дезинформации, а также о запрете действий, направленных на манипулирование потребителями с целью предоставления их данных .

Проблема заключается в том, что эти технологии являются универсальными: «Распознавание лиц используется для множества разных целей, поэтому будет трудно сказать: это правила, применимые к распознаванию лиц. ».

Что касается Mutale Nkonde, вполне вероятно, что это нормативное движение приведет к появлению технологий. Однако все американские выборные должностные лица по-прежнему плохо понимают эти вопросы.

Также реализуются другие инициативы. США Сенатор Элизабет Уоррен (@teamwarren), кандидат от Демократической партии на президентских выборах 2020 года, опубликовала на Medium призыв ликвидировать Гафамы . Добавлена ​​публикация для инвесторов, основанная на данных:

«Помимо налогообложения и сокращения числа технологических компаний, демократические правительства должны устанавливать правила о том, как этим компаниям разрешено вести себя - правила, которые ограничивают способы сбора и использования наших личных данных, например, такие как Общие правила защиты данных. Регламент, который уже вступил в силу в Европейском Союзе в прошлом месяце. Но более жесткого регулирования Кремниевой долины недостаточно ».

Кроме того, у нее есть:

  • также представили законопроект, который возлагает на платформы юридическую ответственность за любую утечку личных данных (проблема, которая стала повсеместной).
  • предложили, чтобы Гафамы облагались налогом не с доходов, декларируемых в налоговые органы, а с доходов, которые они представляют своим инвесторам и акционерам.
  • Для регулирования автоматизированных систем экран этики может быстро выйти из строя перед лицом более немедленных обещаний о внесении изменений в нормативные акты и судебных разбирательствах.

В Соединенных Штатах оценка воздействия на окружающую среду позволяет общественности оставлять комментарии. Однако аудиторы могут быть не только присяжными экспертами, но и должны привлекаться сообщества и представители общественных интересов. Закон об алгоритмической ответственности также не дает права устанавливать определенную прозрачность результатов оценок воздействия.

Не выступая за полную прозрачность этих аудитов, эксперты считают, что как минимум FTC, орган по оценке, должен представлять годовой отчет об уроках, извлеченных из проведенных исследований воздействия!

Заключение

Как вопросы становятся приоритетными в инновационной повестке дня? Как для решения этих проблем появляются стандарты среди множества конкурирующих решений?

Какие процедуры применяются при применении этих стандартов? И чтобы избежать тяжести, предвзятости или слепых пятен этих процедур, какие маленькие или большие устройства они изобретают ежедневно?

Все это вопросы, от которых будет зависеть завтрашнее общество с машинами, но прежде всего с людьми. За понимание в этой области:

Я хотел поблагодарить вас за время, потраченное на эту 3-ю часть, касающуюся довольно горячей темы нашего ближайшего будущего, особенно с точки зрения обучения новых поколений и трудоустройства. Мнения многих экспертов по этому вопросу дают нам все основания для подготовки к социальным изменениям, но я бы добровольно не принял чью-либо сторону. Я думаю, что остается важной роль гражданского общества с точки зрения регулирования и нас, адаптация и взаимодополняемость между человечеством и ИИ. чем полный и удивительный подход к теме .

Спасибо, что оставили мне отзыв и оценили эту статью в соответствии с вашими чувствами и моим пониманием :-D