Fluent.ai находится на переднем крае крошечного машинного обучения и находится в хорошей компании, так как все больше и больше игроков видят преимущества малого.

Как говорится, хорошее бывает в маленьких упаковках. В растущей области крошечного машинного обучения (TinyML) чем меньше, тем лучше. В области передовых технологий есть стремление создавать более мелкие и более эффективные решения для широкого спектра сценариев использования, от биометрии до распознавания голоса и лиц. Достижения в этой области включают оборудование, программное обеспечение и алгоритмы, которые с учетом их «крошечности» делают их идеальными решениями для постоянно работающих приложений.

Описан исследователем из Гарварда Мэтью Стюартом, доктором философии. как пересечение машинного обучения и встроенных устройств Интернета вещей (IoT), TinyML может произвести революцию во многих отраслях. Эта область возникла как способ решения критических проблем по поводу традиционных подходов к машинному обучению, которые включают зависимость от облака для обработки данных. Эта передача данных с устройства в облако и обратно вызывает опасения по поводу конфиденциальности данных, задержек и хранения, а также энергоэффективности.

Эти опасения усугубляются в зависимости от варианта использования. Например, вопросы конфиденциальности находятся в центре внимания таких устройств, как настенные панели и динамики для умного дома, которые слушают приходы и уходы в доме пользователя. Что касается задержки, даже небольшая задержка может полностью изменить взаимодействие с пользователем при взаимодействии с пультами Smart TV или носимыми устройствами, такими как фитнес-трекеры. В целом, многие потребительские товары работают от батарей, поэтому энергоэффективность устройств с ИИ позволяет избежать постоянной подзарядки или стыковки.

Чтобы избежать облачных процессов искусственного интеллекта, которые подвергают риску личные данные и делают компьютеры и микроконтроллеры медленными и неэффективными, растет спрос на крошечные технологии искусственного интеллекта, которые могут работать локально на устройстве без потери энергии или замедления операций. TinyML нашел естественный дом в пространстве Интернета вещей и продолжает расти. Согласно Gartner, ожидается, что количество подключенных к Интернету вещей устройств в мире к 2023 году увеличится почти в три раза и достигнет 43 миллиардов устройств. По данным ABI Research, всего 2,5 миллиарда устройств будут поставляться с чипсетом TinyML в России. 2030 г.

По мере того, как рост устройств IoT продолжается, расширяются и возможности, предоставляемые TinyML. Увеличение числа отраслевых мероприятий по всему миру, таких как ежегодный саммит TinyML, говорит о становлении TinyML как растущего игрока в технологическом пространстве. В этом году онлайн-конференция собрала более 100 докладчиков и участников из крупных компаний и исследовательских центров, в том числе Microsoft, Arm, Apple и Калифорнийский университет в Беркли. Темы варьировались от анализа рыночных возможностей TinyML до оптимизации энергоэффективности технологий искусственного интеллекта. Fluent.ai был среди докладчиков на саммите. Основатель и технический директор Викрант Сингх Томар рассказал о новейшей инновации Fluent в области TinyML: «Управляемый поиск нейронной архитектуры с имитационным обучением» (GNASIL).

Несмотря на недавние разработки в области машинного обучения, поиск оптимального решения для данной задачи остается сложной задачей и требует много времени. Это часто требует значительных усилий при проектировании и настройке нейронных архитектур, особенно для встроенных решений TinyML, которым требуются определенные модели из-за ограниченных вычислительных ресурсов. Вот где на помощь приходит GNASIL. Задача GNASIL - обнаружить большое количество хорошо работающих архитектур нейронных сетей в пределах заранее определенного предела целевого вычислительного пространства за короткий промежуток времени.

GNASIL использует инструмент машинного обучения, называемый агентом мягкого обучения с подкреплением (RL), для быстрого и эффективного обнаружения новых нейронных сетей. Он расширяет возможности обучения за счет вариантов планирования, основанных на прошлом опыте, и имитационного обучения с помощью доступных архитектур, разработанных экспертами для решения аналогичных задач. GNASIL сочетает продуманное планирование с предсказаниями агента RL и выбирает лучшее действие за раз. В GNASIL функция вознаграждения сочетает в себе точность недавно обнаруженной структуры нейронной сети на проверочном наборе и вычислительную площадь разработанной архитектуры в операциях с плавающей запятой в секунду (FLOPS).

На данный момент эксперименты Fluent с рядом задач распознавания речи на устройстве демонстрируют, что GNASIL выдерживает испытания. Нововведение позволяет разрабатывать нейронные модели с конкурентоспособной производительностью как с точки зрения скорости обнаружения, так и с точки зрения точности обнаруженных архитектур, и все это в рамках предопределенных ограничений (FLOPS), помогая разрабатывать и оптимизировать архитектуры нейронных сетей быстрее, чем раньше. Посмотрите видео ниже, чтобы узнать больше о GNASIL от основателя Fluent.ai и технического директора Викранта Сингха Томара.