На то, чтобы научиться писать качественный компьютерный код, могут потребоваться годы, но что, если компьютер, который может программировать сам, с большей вероятностью будет изучать язык быстрее, свободно общаться и даже моделировать человеческие познания. Любопытство внутри вас должно быть выскакивает из-за вопроса о том, как машина может справиться с такой сложной задачей?

Что ж, парижская фирма SourceAI считает, что программирование не должно быть таким сложным.

Целью Source AI и других подобных программ является GPT-3, мощная языковая программа AI, выпущенная в мае 2020 года корпорацией open из Сан-Франциско, стремящейся внести фундаментальные улучшения в AI. Среди первых нескольких сотен человек, получивших доступ к GPT-3, были основатели Source AI. Хотя открытый ИИ не выпустил код для GPT-3, он предоставляет API для некоторых людей для доступа к модели.

GPT-3 преобразует естественный язык в PowerFx, очень простой язык программирования, аналогичный инструкциям Microsoft Excel, выпущенным в марте. Например, если вы хотите умножить два числа, просто скажите инструменту компании «умножить два числа, заданных пользователем», и для этого в Python появится около дюжины строк.

«Если вы можете описать, что делать с естественным языком, GPT-3 сгенерирует список наиболее подходящих формул для вашего выбора, а затем код напишется сам», - сказал генеральный директор Microsoft Сатья Наделла.

Кроме того, Microsoft инвестировала 1 миллиард долларов в OpenAI в 2019 году и согласилась лицензировать GPT-3.

SourceAI обещает предоставить своим пользователям возможность создавать более широкий спектр программ на различных языках, тем самым помогая автоматизировать создание большего количества программного обеспечения. «Разработчики сэкономят время при написании кода, в то время как люди, не обладающие знаниями в области программирования, также смогут разрабатывать приложения»,

- говорит Беттс. Хендрикс считает, что искусственный интеллект, который предлагает следующую строку кода, может повысить продуктивность программистов и потенциально снизить спрос на программистов или позволить меньшим командам достигать целей.

Но они не были первыми, кто заметил потенциал SourceAI. Вскоре после выпуска SourceAI один программист продемонстрировал, что он может изменять фрагменты кода для создания настраиваемых веб-приложений с кнопками, полями ввода текста и цветами. Другой стартап Rebuild намерен коммерциализировать эту технику. Другая фирма, TabNine, создала инструмент, который предлагает автозаполнение строки или функции, когда разработчик начинает печатать, используя предыдущую версию языковой модели OpenAI.

По словам Брендана Долан-Гавитта, доцента факультета компьютерных наук и инженерии Нью-Йоркского университета, языковые модели GPT-3, скорее всего, будут использоваться для помощи программистам.

На этом список не заканчивается. На конференции Microsoft's Build генеральный директор OpenAI Сэм Альтман продемонстрировал языковую модель, настроенную с помощью кода Github, которая автоматически генерирует строки кода Python. Примеров тому много.

Но есть некоторые исследователи и ученые, которые считают, что использование ИИ для генерации и анализа кода может быть трудным. Исследователи из Массачусетского технологического института продемонстрировали в статье, опубликованной в марте в Интернете, что компьютер с искусственным интеллектом, обученный обеспечивать безопасную работу кода, может быть введен в заблуждение путем внесения нескольких незначительных изменений, таких как замена определенных переменных, для создания опасного алгоритма.

«Как только эти модели поступят в производство, все может быстро стать неприятным», - говорит он.

Долан-Гавитт, профессор Нью-Йоркского университета, поднимает сложные вопросы: «Я думаю, что прямое использование языковых моделей, вероятно, приведет к появлению ошибочного и даже небезопасного кода», - говорит он. «В конце концов, они обучены написанному человеком кодом, который очень часто содержит ошибки и небезопасен».

В недавнем тесте лучшая модель только в 14% случаев справлялась с задачами программирования для начинающих, собранными группой исследователей ИИ. Некоторые исследователи также обнаруживают, что автоматизация кода может изменить разработку программного обеспечения, ограничения современного ИИ и обнаружены слепые зоны, которые могут создавать новые проблемы.

Например, в недавнем исследовании было обнаружено, что GPT-3, который был настроен на выполнение задачи по ответам на вопросы и созданию контента, генерировал текст, который включает половые акты с детьми, оскорбительный текст о чернокожих людях, женщинах и Мусульмане .

Программа искусственного интеллекта может сделать тысячи предположений. Например, простая команда помощнику ИИ «Купи мне туалетную бумагу» содержит множество предположений. Их можно было бы неправильно интерпретировать, если бы они не были заранее закодированы как ограничения. Насколько важна цена? Мягкость? Качественный?

Необходимо протестировать код AI (с кодом). Учитывая, что ИИ может генерировать код для чего угодно, пространство вывода может быть безграничным. Например, вы не можете разработать тесты, охватывающие бесконечное пространство и множество доменов, поскольку вы не можете контролировать беспилотный автомобиль на протяжении 100 миллионов километров, чтобы гарантировать его безопасность.

ИИ вряд ли будет доверять критически важным системам. В рамках одной функции легко написать безупречный код. Это значительно сложнее для всего приложения. Каковы последствия взлома ИИ или написания плохого программирования? Военные не могут доверять этому.

«Искусственный интеллект потенциально более опасен, чем ядерное оружие», - сказал Илон Маск.

ИИ не может заменить инженеров-программистов. Это может не иметь смысла для крупных разработчиков, но инженеры-программисты в стартапах делают гораздо больше, чем просто пишут код, который может включать:

Ø написание и проверка тикета и кода

Ø говорить о пользовательском опыте

Ø Обсуждаются ограничения на гипотетические особенности.

По словам Элиэзера Юдковски, «Безусловно, самая большая опасность искусственного интеллекта состоит в том, что люди слишком рано приходят к выводу, что они его понимают».

Некоторые исследователи и ученые также считали, что к этому следует подходить логически, по крайней мере, на начальном уровне карьеры разработчиков ИИ, иначе ИИ не обязательно должен быть злом, чтобы уничтожить человечество, если человечество просто случайно встанет на пути, оно уничтожит человечество как само собой разумеющееся, даже не задумываясь об этом, никаких обид.

Мы никогда не должны полностью полагаться на ИИ, и мы всегда должны больше сосредотачиваться на различных наборах проблем. Сделав это, мы сможем расширить возможности ИИ до того, как он одолеет нас.

Пока неясно, как Microsoft, OpenAI и Github будут вместе работать над ИИ для программирования. В 2018 году, вскоре после того, как Microsoft приобрела Github, компания объявила о развертывании языковых моделей для поиска семантического кода, но представители Github отказались комментировать статус.

Еще предстоит увидеть, насколько хорошо работает инструмент SouceAI.