Андрей Бурков говорит, что машины не обучаются так, как люди. GoogleAI вообще-то кошек не видит. Они просто видят на матрице фрагменты данных и объявляют их кошкой. Он говорит, что люди так не учатся. Позволю себе не согласиться.

Объективный мир наполнен людьми, кошками, кофе и интернет-мемами - он кажется довольно конкретным, не так ли? Но когда вы посмотрите еще раз; Когда вы размышляете над тем, что мы знаем о человеческом восприятии и относительности, становится совершенно ясно, что «мир снаружи» не совсем такой, как мы ожидали. Нет «человека», «кошки» или «кофе». Нет никакой «реальности».

Конечно, это не новость. Физика элементарных частиц и феноменология восприятия, а также квантовые теории демонстрируют, что мир - это просто совокупность атомов и волн…. или фрагменты данных, если хотите. На этом глубоком уровне мы учимся как люди, узнавая (и, по сути, создаем) реальность из этих цепочек неясной информации.

Когда мы смотрим на машинное обучение, я считаю, что фатальный недостаток - сравнивать машину с плотским человеком, который стоит перед вами в нашей объективной реальности. То, как учится ребенок и как обучается машина, на первый взгляд может частично совпадать, но при глубоком понимании данных такие сравнения - безумие. Требуется более сложный анализ.

Если я смотрю на объект и узнаю кошку, что на самом деле происходит? Проще говоря, я мог бы сказать, что у кошки есть признаки «кошачьей», такие как ее размер, ловкость, пушистость, положение глаз, положение ушей, усы и пушистый хвост. Но, размышляя над пониманием физики, мы можем сделать вывод, что что-то еще происходит до изображения, похожего на кошку.

"Ой, смотри, там кошка"

Есть этапы понимания распознавания объектов, и оно не начинается со слов «о, смотри, есть кошка; ты тоже видишь кошку, компьютер? " Все начинается с данных - для машин И для людей.

Итак, почему человек может отличить кошку от всех других объектов в своем воспринимаемом мире, а машина видит набор цифр и букв? Есть несколько уровней ответов.

На первый взгляд, можно предположить, что исследования людей не являются основанием для понимания машин. Если машины обрабатывают извилины, то зачем вообще рассматривать человеческий опыт? В этой повседневной практике программирования, конструирования и работы с машиной можно забыть, что а) большинство достижений наших машин пришло из биологии; б) чтобы разработать интуитивно понятный ИИ или встроить сознание в машину, я думаю, мы должны рассмотреть что-то более глубокое. Для людей важно понимать машину, и что может быть лучше, чем моделировать ее на нашем изображении. Хм, звучит знакомо, а?

На полпути, я думаю, нам нужно рассмотреть эволюционную перспективу. То есть машины обучались только 60–70 лет, а люди обучались 6 миллионов лет. Хотя машины определенно схватывают концепции быстрее, чем люди, а недавно GoogleAI научился играть в футбол в цифровом мире, мы, люди, все еще более продвинуты, чем машины. Люди эволюционировали, чтобы интерпретировать «кошачье состояние» как понятие выживания. Мы бежим от этого объекта или бежим к нему? Это полезный навык! Как машина, их «тело» неподвижно, и ему не нужно бежать ... Более того, наша клеточная биология хранит воспоминания. Получив их при зачатии, ваши дети будут помнить ваши травмы и ваше обучение. Хотя травмы поколений могут расстраивать, в целом наша клеточная память помогает. И я думаю, что это еще одна проблема с машинами.

машины не учатся, как люди; они видят извилины

В глубине души я думаю, что ответ на вопрос, почему мы видим по-другому, заключается в том, что наше понимание ограничено тем, что мы думаем, что знаем о нашей реальности. Людям еще предстоит окончательно понять, что именно происходит в человеческом уме, чтобы преобразовать «большие данные» в распознавание объектов. Да, мы приписываем нейробиологическому / биологическому пониманию наших глаз и мозга, но что на самом деле происходит в тот момент, когда наша «человечность» встречается с «инаковостью»?

Я думаю, что это вопрос, на который мы должны ответить.