.

AI: Это последствия и угроза

Краткое введение в искусственный интеллект и угрозу, которую он представляет

Введение в искусственный интеллект:

Искусственный интеллект - термин, введенный Джоном Маккарти в 1956 году, - это просто стимуляция процессов человеческого интеллекта машинами. Источник: TechTarget.

Программирование искусственного интеллекта основано на трех когнитивных навыках; обучение, рассуждение и самокоррекция.

В тех случаях, когда процессы обучения сосредоточены на сборе данных и разработке правил (алгоритмов) для преобразования этих данных в полезную информацию, процессы рассуждений гарантируют, что для достижения желаемого результата используются «правильные» алгоритмы. Третий навык, самокоррекция, основан на постоянном обновлении и корректировке алгоритмов, чтобы гарантировать, что результат будет наиболее точным.

Сегодняшний ИИ называют «слабым или узким (ИИ)». Они предназначены для выполнения конкретной задачи. Siri от Apple - один из многих примеров слабого ИИ.

Сильный (AI) или общий искусственный интеллект (AGI), которые представляют «большую», хотя и не непосредственную угрозу, - это ИИ, которые могут воспроизводить когнитивные функции человеческого мозга. Они могут работать в многозадачном режиме и, если их разработать в полной мере, превзойти людей. С другой стороны, они еще не разработаны. Сильный искусственный интеллект - это «цель» исследователей ИИ, веха, к которой они стремятся.

Последствия искусственного интеллекта:

В статье Future Of Life Макс Тегмарк, президент Future of Life Institute, рассказывает о потенциальных преимуществах разработки ИИ:

Он говорит: «Все, что нам нравится в цивилизации, является продуктом интеллекта, поэтому усиление нашего человеческого интеллекта с помощью искусственного интеллекта может помочь цивилизации процветать, как никогда раньше - до тех пор, пока нам удастся сохранить полезные технологии».

Одно из немногих преимуществ - автоматизация задач на рабочем месте. Это означает, что человеческий труд может вместо этого выполнять задачи, которые для них более интересны, для которых они лучше подходят. Например, задания, требующие сочувствия и творчества. Это снижение нагрузки на рабочую силу означает большую производительность и удовлетворенность.

Преимущества автоматизации задач не ограничиваются только персоналом, ИИ может изменить способ нашего обучения. Искусственный интеллект может автоматизировать выставление оценок, оценивать учащихся и учитывать их требования, облегчая работу учителей.

Самый важный прорыв, пожалуй, произойдет в сфере здравоохранения. Искусственный интеллект может комбинировать данные пациентов с другими данными, чтобы выдвинуть гипотезу, более точную, чем у человека. Выставление счетов, запись на прием и поиск медицинских приемов могут быть намного удобнее с помощью виртуальных онлайн-помощников и чат-ботов. Кроме того, внедрение ИИ в медицину может снизить эксплуатационные расходы. В своем отчете Дэвид Болье говорит, что ИИ расширяет доступ к специализированным знаниям - сдвигам, которые могут переконфигурировать нормы медицинского лечения и рынок здравоохранения.

Однако следует отметить, что неправильное представление об ИИ и его последствиях может заставить людей усомниться в использовании ИИ в здравоохранении. Среди пациентов это может вызвать споры. Согласно опросу, 80% россиян отрицательно относятся к роботам, выполняющим медицинские операции в будущем.

Угрозы, связанные с ИИ:

Наряду со всеми плюсами, развитие ИИ сопряжено с определенными рисками:

В связи с этим физик Стивен Хокинг сказал: «Успех в создании эффективного ИИ может стать крупнейшим событием в истории нашей цивилизации. Или худшее. Поэтому мы не можем знать, будет ли нам бесконечно помогать ИИ, или он игнорирует его и оттесняет на второй план, или, возможно, он уничтожит его ».

Например, развитие персонала может представлять опасность. ИИ может заменить большую часть рабочей силы, что означает потерю работы для большей части рабочей силы. Неуверенность в том, как именно ИИ повлияет на экономику, также может быть проблемой для некоторых.

Поскольку мир становится меньше, ИИ должен будет работать по правилам, действующим во всем мире, правилам, которые позволяют эффективно взаимодействовать во всем мире. Установление таких правил - задача не из легких. Регулирование ИИ тоже непросто; с внедрением новых технологий старые нормативные правила могут легко устареть.

Развитие ИИ также допускает злоупотребления, такие как взлом или торговля ИИ. Встроенное смещение позволяет программисту ИИ намеренно или непреднамеренно вводить смещение. Искусственный интеллект, работающий с предвзятостью или извлекающий уроки из предвзятых данных, также будет давать необъективные результаты. Это может дать произвольной группе, в некоторых случаях, несправедливое преимущество перед другими, хотя результат того, что предвзятый ИИ становится непредсказуемым, не менее неприятен.

«Более странная» угроза ИИ:

В своей речи перед Тедом, Джанель Шейн, исследователь ИИ описывает работу с ИИ не столько как работа с другим человеком, сколько как работа с какой-то странной силой природы. Поскольку разум ИИ чужд нашему, он выполнит поставленную перед ним задачу, хотя и не так, как мы могли бы ожидать. Джанель также говорит: Очень легко дать ИИ не ту задачу, которую нужно решить. Что, по ее словам, может быть весьма разрушительным.

В то время как эта проблема кажется более применимой к слабому ИИ, угроза сильного ИИ недалеко от нее. Угроза заключается в несовпадении целей ИИ с нашими, и риски возрастают с сильным ИИ. Другая проблема заключается в том, что ИИ может стать сверхкомпетентным, делая все возможное для достижения определенной цели, каким бы неэтичным это ни было. Они могут воспринимать инструкцию слишком буквально, что само по себе является проблемой.

Почему мы должны беспокоиться об «угрозе» ИИ ?:

2 декабря 2014 года Стивен Хокингс сказал Би-би-си: ИИ может положить конец человечеству. И многие другие исследователи и ученые считают, что это так, особенно с учетом неожиданных технологических достижений, которые сделали то, что когда-то считалось вымышленным (Сильный ИИ), возможным. Согласно Future Of Life Institute, обсуждавшемуся на конференции в Пуэрто-Рико, большинство исследователей предполагают, что это может произойти до 2060 года, говоря: «Поскольку для завершения необходимых исследований по безопасности могут потребоваться десятилетия, разумно начинать их. Теперь.'

Подводя итоги темы, вот что сказал Джон Ховард в своей статье на pubmed.gov: Участие в стратегическом прогнозировании приложений ИИ на рабочем месте переведет профессиональные исследования и практику из реактивной позиции в проактивную.

Каковы были ваши предубеждения об ИИ? Считаете ли вы это потенциальной угрозой?

Продолжайте обсуждение ниже!