Пару недель назад я написал сочинение на конкурс о том, представляет ли ИИ угрозу. Вот работа, которую я сделал, которая дала мне 20% стипендию.

Такие фильмы, как «Терминатор», и такие идеи, как «Василиск» Роко, поразили наше коллективное сознание и заставили задуматься, будет ли момент времени, когда ИИ станет угрозой для человечества.

Но сначала мы должны дать определение ИИ и угрозе. ИИ «относится к системам, которые демонстрируют интеллектуальное поведение, анализируя свою среду и предпринимая действия — с некоторой степенью автономии — для достижения конкретных целей». Угрозу можно определить как любую опасность, которую ИИ представляет для человечества. По этому определению у нас есть два типа угроз:

  1. Трудовая угроза, когда рабочая сила заменяется роботами с искусственным интеллектом.
  2. Экзистенциальная угроза, когда человечеству грозит вымирание или рабство под управлением ИИ.

Мы будем исследовать как угрозы, так и возможность их материализации.

Во-первых, у нас есть трудовая угроза. Это угроза, которая в настоящее время реализуется, когда низкоквалифицированные и повторяющиеся рабочие места перераспределяются в пользу ИИ. По оценкам Всемирного экономического форума, 85 миллионов рабочих мест будут заменены благодаря автоматизации, но к 2025 году в процессе будет создано 97 миллионов новых рабочих мест. квалифицированы и нуждаются в переквалификации и повышении квалификации для значительной части рабочего населения. Мы должны признать, что не каждый может пройти переподготовку, а переподготовка — это дорогостоящий и трудоемкий процесс. Это подвергает часть работающего населения, которое слишком старо для переквалификации, риску безработицы. Однако для молодого поколения, которое можно легко переквалифицировать, ИИ не представляет для них угрозы, а вместо этого ведет к долгосрочному росту занятости.

С другой стороны, экзистенциальная угроза, вероятно, возникнет, когда произойдет технологическая сингулярность, точка, в которой машинный интеллект превзойдет человеческое познание.

Развитие ИИ быстро улучшается благодаря таким алгоритмам, как GPT-3 и AlphaGo. Эмпирическое правило измерения прогресса ИИ заключается в отслеживании скорости изменения сложности капчи. Чем круче график, тем сложнее ИИ. Эксперты предсказывают, что при нынешнем состоянии развития мы можем достичь сингулярности на рубеже веков.

Однако корень этого вопроса заключается в том, будет ли ИИ рассматривать человечество как угрозу своему выживанию. Если этого не произойдет, люди станут для ИИ тем, чем для нас являются муравьи. Мы не заботимся о них и не сожалеем об их смерти, если только не возникает ситуация, затрагивающая обе стороны. Однако, если ИИ рассматривает нас как угрозу, у него будут все основания уничтожить нас просто из-за его инстинкта выживания. Поэтому ИИ будет представлять угрозу для человечества.

Помимо сингулярности, всегда существует угроза использования ИИ против нас. Публичное профилирование, поляризующие алгоритмы социальных сетей и автономные удары дронов — все это такие инциденты. Хотя и не прямое, такое вооружение может иметь опасные последствия и представлять угрозу.

Такой прогресс насторожил Европейский Союз, который предложил регулировать разработку ИИ, чтобы сделать ее более этичной. Нам нужно понять, что ИИ — это технология, и ее использование определяет, представляет ли она угрозу.