Что может машинное обучение и ИИ? учиться на уроках, уже усвоенных в других областях? Я с радостью утверждаю, что из уроков, извлеченных в ходе развития науки на протяжении тысячелетий, можно было бы извлечь гораздо больше.

Например, мне кажется, что обработка вековых дебатов по философии науки имеет отношение к машинному обучению и искусственному интеллекту. И это не должно быть таким сюрпризом, верно? Мы хотим, чтобы наше программное обеспечение «понимало» мир. Чтобы сделать точные и надежные прогнозы по этому поводу. Быть разумным и рациональным. Осмысленно основывать свои убеждения на доказательствах. Мы хотим, чтобы наши умные системы были — ну… учеными. Не волшебники. И я вернусь к некоторым практическим способам, которыми, я думаю, мы могли бы извлечь пользу из этого осознания позже.

Но сначала я начну, как я обычно делаю в любой теме, с придуманной аналогии.

Любой читатель, немного знакомый с философией науки, знаком с дебатами между индуктивизмом и фальсификационизмом. Видите ли, проблема с предположением, что наука заключается в том, чтобы делать множество наблюдений, а затем формировать гипотезу, которая обобщает эти наблюдения, заключается в том, что вы не сделали все свои наблюдения. Нет причин думать, что ваша гипотеза будет работать вечно. События черного лебедя — это общепринятая метафора того, что доказательств не существует. На протяжении веков и более все лебеди, которых видели в Северной Европе, были белыми. Все они. Настолько, что черный лебедь использовался как термин для невозможного. Затем Виллем де Вламинг отправился в Австралию, где они жили в достатке.

Таким образом, фальсификаторы вроде Поппера пришли с утонченным представлением о том, что наука не доказывает свои убеждения наблюдениями. Он просто ищет текущее наименее плохое решение. И пытается его сломать (фальсифицировать). Наименее плохое решение, которое не удается опровергнуть, становится лучшей гипотезой или теорией. Пока не будет найдена более подходящая модель (которую также невозможно сфальсифицировать). Или фальсифицируется.

Так где же аналогия? Ну, их много; об обобщении, ошибках обучения, ошибках проверки и ошибках производства… Но аналогия, которая поражает меня сегодня, — это «религиозные дебаты», которые все еще продолжаются сегодня вокруг того, какая философия верна. Многие видят, что они противоречат друг другу, но оба кажутся верными. Немного похоже на байесовцев против частотников…

Индуктивистский эмпиризм по-прежнему остается наиболее распространенным восприятием науки среди населения в целом. Тем не менее, Проблема индукции убедительно свидетельствует о том, что Поппер был прав. Что никакая теория не может быть доказана, только опровергнута. И вот группа философов, называемых логическими позитивистами, присоединилась к борьбе и сказала (я перефразирую): если вы не можете проверить гипотезу, это не имеет смысла. Мало того, они превратили это в оружие против самих дебатов, заявив, что вопрос о науке (какая философия верна) не поддается проверке и поэтому бессмысленен.

Тогда я бы предположил, что дебаты между Байесом и Фреквентистом не являются значимыми, поскольку их невозможно проверить. Так что в следующий раз, когда кто-нибудь спросит вас, байесовец вы или частотист, скажите: «Возможно, но спросите меня завтра еще раз». Ваш ответ может быть таким же значимым, как и вопрос.

Ну, это много слов с довольно вялой развязкой, верно? Ну нет. Я бы сказал, что мы можем извлечь огромную пользу, если верим в то, что машинное обучение — это действительно синтетическая наука. Например: какую аналогию рецензирования вы используете в своем конвейере машинного обучения? Какую аналогию формализованной гипотезы мы используем в нашей модели? Каковы «принципы» ML? Пытаетесь ли вы быть принципиальным в своем алгоритме и дизайне моделей? Если нет, то почему? Какие средства снижения рисков, связанные с «черным лебедем», вы заложили в какой-либо механизм, который вкладывает значительные средства в постоянное использование какой-либо модели?

Мне особенно нравится идея более широкого использования компонентов Relation Networks во всех без исключения системах. Отчасти потому, что это может начать формировать прото-понятие генерации гипотез и, следовательно, фальсификации знаний/понимания сети.

То, что может в конечном итоге стать еще большим откровением/революцией, может произойти, когда быстро расширяющаяся база знаний о проектировании машинного обучения начнет реагировать и фактически информировать принципы и философию науки.