Дерек Томпсон опубликовал на прошлой неделе эссе в Атлантике, в котором размышлял над интригующим вопросом: Когда мы смотрим на генеративный ИИ, на что мы на самом деле смотрим?

Эссе было оформлено следующим образом: «Грубо говоря, GPT-4 — это большая языковая модель, которая создает контент, вдохновленный людьми, с использованием технологии преобразования для предсказания текста. Грубо говоря, это самоуверенный и часто галлюцинирующий робот с автозаполнением. Это нормальный способ описания технологии, если вас устраивает словарное определение. Но дело не в более широком вопросе: когда мы смотрим на генеративный ИИ, на что мы на самом деле смотрим?»

Другими словами, в то время как мы можем описать и предвидеть непосредственное влияние этих технологий и их текущего использования, прогнозы на более длительный период действительно трудно увидеть и предвидеть. Очень сложно предсказать, куда нас приведут технологии генеративного ИИ, такие как GPT от OpenAI и другие родственные технологии, и что они дадут.

Для сравнения Томпсон размышляет о двух аналогиях с предыдущими технологиями, которые изменили ход человеческой истории, паровой двигатель и электричество. Паровая машина, «можно сказать…, — это устройство для откачки воды из угольных шахт». И это было бы правдой. Но это точное описание было бы слишком узким, чтобы увидеть общую картину. Паровая машина была не просто водяным насосом. Это был рычаг для отделения экономического роста от роста населения». А электричество — это «замена китового жира в лампах… Но это описание не затрагивает поверхности того, что представляло собой изобретение. [Электричество] позволяло получать местную энергию по запросу для чего угодно — не только для света, но и для тепла, и для любого количества машин, которые изобретатели 19-го века даже не могли себе представить».

Суть Томпсона в том, что способность описать, что такое генеративный ИИ сегодня и как он работает, не означает, что его эволюция, будущее использование и влияние предсказуемы. Существует слишком много степеней свободы и слишком много возможностей, которые эти технологии могут использовать в слишком большом количестве комбинаций с другими факторами, что затрудняет или делает невозможным точное прогнозирование. Итак, то, на что мы смотрим, зависит от масштаба и контекста.

Томпсон продолжает иллюстрировать это, приводя три «точки зрения» на то, как он видит GPT: «Иногда мне кажется, что я смотрю на второстепенного гения. Предыдущая модель GPT сдавала единый экзамен на адвоката и получила 10-й процентиль, неудовлетворительную оценку; GPT-4 набрал 90-й процентиль. Он набрал 93-й процентиль по тесту чтения и письма SAT и 88-й процентиль по LSAT. … это использование того, что считается искусственным рассуждением, основанным на большом количестве данных, для решения новых тестовых задач. И, по крайней мере, во многих тестах он уже делает это лучше, чем большинство людей».

«Иногда мне кажется, что я ищу репликатор Star Trek для контента… Ваш сын, который любит аллигаторов, приходит домой в слезах после того, как над ним издевались в школе. Вы поручаете ChatGPT написать 10-минутную рифмованную историю о маленьком мальчике, который побеждает своего хулигана благодаря своему волшебному чучелу аллигатора. Вы получите эту книгу через несколько минут — с иллюстрациями».

Иногда мне кажется, что я смотрю на неприятность века… Исследователи безопасности ИИ беспокоятся, что однажды этот ИИ сможет красть деньги и подкупать людей, чтобы те совершали злодеяния. Вы можете подумать, что это предсказание абсурдно. Но подумайте об этом. До того, как OpenAI установил последние защитные ограждения GPT-4, технология «заставила человека решать за нее CAPTCHA. Когда человек, работающий TaskRabbit, отреагировал скептически и спросил GPT, не робот ли это, GPT придумал оправдание. Нет, я не робот, — солгал робот.

Он завершает свое эссе последней аналогией, которая действительно заставляет задуматься о пока еще непредвиденных последствиях технологий генеративного ИИ — хороших или плохих: «Ученые точно не знают, как и когда люди впервые оспаривали огонь как технология, примерно 1 миллион лет назад. Но у нас есть хорошее представление о том, как огонь изобрел современное человечество… огонь смягчил мясо и овощи, позволив людям ускорить потребление калорий. Между тем, отпугивая хищников, контролируемый огонь позволял людям спать на земле в течение более длительных периодов времени. Комбинация большего количества калорий и большего количества БДГ на протяжении тысячелетий позволила нам вырастить большой, необычайно энергожадный мозг с обостренными способностями к памяти и предсказанию. В узком смысле огонь делал вещи горячее. Но это также буквально расширило наш разум… Наши предки знали, что открытое пламя — это дикая сила, заслуживающая почтения и даже страха. Та же технология, которая сделала возможной цивилизацию, также сровняла с землей города».

Томпсон кратко высказывает мнение о том, что, по его мнению, генеративный ИИ сделает с нами в своем последнем предложении: «Я думаю, что эта технология расширит наши представления. И я думаю, что это сожжет нас».

Модель того, как расширяются человеческие знания (и почему так сложно предсказать слишком далеко вперед)

Эссе Томпсона непреднамеренно, но весьма поэтично иллюстрирует, почему так трудно предсказывать события и последствия слишком далеко в будущем. Ученые и философы изучали процесс расширения знания от текущего состояния к новым направлениям мысли и знания.

Эти идеи имеют прямое применение к текущему состоянию машинного обучения и ИИ. Понимание процесса открытия и расширения человеческого знания — по сути метаформы расширенного знания самого себя — дает контекст для того, почему мы изо всех сил пытаемся предсказать развитие таких технологий, как генеративный ИИ. Это дает понимание того, почему существует так много неопределенности, спекуляций, мнений и споров о текущем состоянии и что оно подразумевает.

Концептуально основная идея заключается в том, что такие события, как открытия, эволюция идей, формирование и использование новых технологий и даже биологический и химический прогресс, обязательно идут по пути от того, что реально уже существует, к одному из, возможно, нескольких смежных событий. или вещи. Другими словами, прогресс идет от «актуализированных событий» к «смежному возможному».

Совокупность актуализированных событий представляет текущее состояние знаний. Где «знание» здесь зависит от контекста, в зависимости от того, является ли это набором изучаемых идей, генами, взаимодействующими в организме и развивающимися в виде, или текущим состоянием искусства в области машинного обучения и ИИ, таких как GPT и другие большие языковые модели генеративного ИИ (LLM). Это текущее состояние знания является «граничным знанием», определяемым набором текущих актуализированных событий.

По мере расширения актуализированных событий в соседнее возможное расширяется и граничное знание. Но это не обязательно должно быть предсказуемым или линейным образом. Вот почему это так сложно предсказать. Представьте себе изрезанную береговую линию, переходящую в океан возможностей. Береговая линия может быть временами извилистой или неровной, или ее часть может расширяться быстрее, чем остальная часть, и образовывать полуостров. Как расширяются пограничные знания, в каких направлениях, как быстро и последствия любого расширения предсказать очень трудно. Это сочетание обстоятельств, различных взаимодействующих факторов и счастливой случайности. Как бы ни расширялось граничное знание, идея состоит в том, что оно должно проходить через соседнее возможное.

Помимо этих концептуальных и философских описаний, ученые смоделировали эти понятия математически и статистически. Они также показали, что реальные наборы данных, похоже, соответствуют этим идеям.

Учитывая этот контекст, неудивительно, что так сложно предсказать, куда могут пойти генеративные модели ИИ, такие как GPT, и каково их влияние в технологическом, научном или социальном плане. Мы являемся свидетелями и переживаем быстрое расширение знаний о границах.

Эта статья изначально была опубликована на Forbes.com. Вы можете ознакомиться с этим и другими произведениями автора на Forbes здесь.