Мы продолжаем добиваться прогресса в разработке платформы.

Ранее мы обсуждали, как SingularityNET интегрирует службы социального интеллекта Aigents. Это позволит любому - даже непрофессионалу - создавать, обучать, обучать и запускать своего личного агента ИИ.

Хотя подобные технологические разработки создают для платформы SingularityNET существенные преимущества первопроходца, мы хотели выделить некоторые из основных компонентов сети, начиная с OpenCog.

Чтобы погрузиться еще глубже, ознакомьтесь с нашим техническим документом.

OpenCog дает SingularityNET доступ к ценным функциям, которые не могут предложить никакие другие платформы.

Первый базовый компонент ИИ и узел в SingularityNET предоставляется проектом OpenCog с открытым исходным кодом. Его главная особенность - уникальный компонент Atomspace. Этот компонент похож на базу данных для представлений графов, подходящую для размещения нейроморфных структур данных, а также семантических графов и онтологий.

Этот гиперграф атомного пространства позволяет создавать гибридные сети, состоящие из символических и подсимволических сегментов. Это стало возможным благодаря уникальной способности Atomspace хранить многоуровневые иерархические гиперграфы, построенные с помощью атомов.

В таких гиперграфах одна ссылка на одном уровне может служить узлом на более высоких уровнях. При этом ссылка (как атом) может содержать внутреннее представление подграфа внутри себя на нижнем уровне. Более того, каждый атом может иметь любое количество контекстных свойств, используемых для вероятностного вывода, распределения активации или чего-либо еще, в зависимости от выбора конкретного алгоритма
.

Возможности OpenCog уже интегрируются

Частью OpenCog, уже интегрированной в SingularityNET, является компонент RelEx для извлечения семантических отношений из английских текстов.



Другая часть OpenCog, которая сейчас находится в активной разработке, - это проект Unsupervised Language Learning (ULL). Он использует гибридный подход, объединяющий субсимвольные и символические методы ИИ. Цель ULL - предоставить возможности семантического понимания для многих человеческих и предметно-ориентированных языков.



Практический пример: SingularityNET может удовлетворить огромный спрос на лингвистическое программирование.

На данный момент лишь несколько языков на Земле охвачены формальной грамматикой, например, литературный английский с Link Grammar. Большинство других нет. Однако огромные объемы оцифрованных текстов лежат в хранилищах для смыслового осмысления.

Чтобы решить эту проблему, компьютерным лингвистам потребовались тысячи лет, чтобы построить грамматику для этого языка. Или же нужны тысячи лет, чтобы аннотировать учебные корпуса для автоматизированного изучения грамматики для всех языков на Земле.

SingularityNET имеет возможность решать эти проблемы с большей скоростью и эффективностью, чем когда-либо считалось возможным. В настоящее время наша команда строит конвейер, который использует субсимвольные подходы, такие как ADAGRAM, встраивание слов, SVD и K-средства для устранения неоднозначности слов и
изучения категорий. В то же время мы используем вероятностный вывод для формирования типов грамматических ссылок и извлечения семантических отношений из деревьев синтаксического анализа.

Важно отметить, что конвейер изучения языка OpenCog реализует непрерывный самоусиливающийся цикл, в котором знания, полученные на более ранних итерациях, могут использоваться для засева последующих итераций и постепенно корректируются. Мы уже продемонстрировали успех в извлечении грамматических и семантических категорий из неаннотированного английского корпуса Гутенберга.

Как только мы разработаем фреймворк для изучения языков, способный работать с существующими языками, его можно будет использовать для работы узлов изучения языка SingularityNET, важный технологический прорыв, с которым не может сравниться ни один другой проект.

Успех ранней разработки может создать растущие конкурентные преимущества

Ключевым компонентом разработки интеллектуальных систем является способность постепенно приобретать знания. Поскольку наша система самообучающаяся, первые преимущества могут принести экспоненциальные выгоды со временем.

Процесс постепенного развития системных знаний должен быть частью решения. Сейчас уже давно забыли, что понятие тест Бэби Тьюринга было предложено более 30 лет назад. В современном сообществе искусственного интеллекта пока я знаю всего пару человек, знающих этот подход, и еще меньше проектов, реализующих его.

Подход отражает постепенный характер развития разумного существа. Суть теста заключается в том, что вы берете новорожденный «черный ящик», способный на немногое, а затем кормите его данными, знаниями и отзывами родителей. Вы постепенно увеличиваете сложность вводимых данных.

В конце «черный ящик» должен быть способен отображать разумное поведение, такое как требуется «базовым тестом Тьюринга».

Преодоление проблем разработки с помощью итеративного дизайна

Мы реализуем эту парадигму в агентах в рамках подхода к разработке на основе тестирования, принятого для программных процессов ИИ. То есть наши сценарии включают добавление новых знаний к вновь созданным агентам. В то же время наши тестовые утверждения подтверждают, что интеллект агентов постепенно увеличивается вместе с новым процессом приобретения знаний.

Важность этого была обнаружена в упомянутом ранее проекте обучения языку без учителя в OpenCog. Пытаясь усвоить языковую грамматику и онтологию для больших неаннотированных и неконтролируемых корпусов, мы заметили, что статистические погрешности, накопленные в больших корпусах текстов, могут привести к вводящим в заблуждение исходным предпосылкам в начале кривой обучения.

Например, подсчитанное совпадение слов может привести к неверному синтаксическому анализу минимального связующего дерева, который мы используем в рамках текущего подхода. И тогда неправильные деревья синтаксического анализа могут вызвать неправильное изучение грамматики. Чтобы справиться с этими проблемами, мы начинаем с небольших лексиконов с ограниченными длинами предложений. Сначала с использованием двухчленных конструкций непереходных глаголов, затем с помощью трехчленных конструкций с низкой неоднозначностью с переходными глаголами. Мы продолжим увеличивать лексику и длину предложений, добавляя прилагательные и наречия.

В целом наш план развития интеллектуальных систем будет:

  1. Упрощение социальных вычислений на основе консенсуса на основе репутации
  2. Разрешить функциональное разнообразие с конвергенцией символического и субсимвольного подходов
  3. Обеспечьте многофункциональную среду с объединением данных из нескольких источников
  4. Включите инкрементное экспериментальное обучение на основе неявных и явных входных данных и обратной связи
  5. Будьте открытыми в открытых экосистемах

Мы только начинаем

Наша команда неустанно работает над созданием экосистемы искусственного интеллекта, обладающей значительными конкурентными преимуществами. В течение следующих нескольких недель мы продолжим демонстрировать, как мы снижаем барьеры на пути к разработке ИИ быстрее, чем любой другой проект.

Подпишитесь на нашу новостную рассылку, присоединитесь к нашему каналу Telegram и посетите субреддит, управляемый сообществом для получения дополнительной информации.