Processeur d’IA : Brainchip lève 25 millions de dollars

La société américaine d'origine australienne BrainChip qui a développé sous la forme d’un bloc d’IP un processeur neuromorphique numérique destiné à insérer des traitements d’intelligence artificielle (IA) dans des puces-systèmes (SoC) en périphérie de réseau (edge), annonce avoir réussie une levée de fonds de 25 millions de dollars en vue d’accélérer le développement et la commercialisation de sa technologie d'IA embarquée.

Ce financement (pour lequel les fonds d’investissement impliqués n’ont pas été révélés) permettra notamment à la société de développer de nouvelles puces et modules autour de sa plateforme Akida 2 avec des modèles d’IA associés, dont le modèle Akida GenAI, en mettant l'accent sur l'IA embarquée à très faible consommation, sans dépendance vis-à-vis du cloud, un enjeu majeur pour l'IoT industriel, la robotique et les objets connectés.

Selon la société d’analyse de marché Grand View Research, ce marché des puces neuromorphiques pourrait atteindre 20,27 milliards de dollars d'ici 2030, avec un taux de croissance annuel moyen de près de 20 %.

Lors de la prochaine manifestation CES qui se tiendra du. 6 au 9 janvier 2026 à Las Vegas aux Etats-Unis, la société montrera comment ce nouveau financement se traduit en termes de produits et de partenariats.

BrainChip présentera également à cette occasion des démonstrations de ses partenaires, notamment HaiLa Technologies qui combine Bluetooth et Wi-Fi ultra basse consommation avec la puce AKD1500 pour la classification visuelle portable. Deep Perception présentera de son côté un pipeline de calcul visuel complet utilisant le circuit AKD1000 pour les drones et les appareils mobiles, tandis que Quantum Ventura exécutera son modèle de cybersécurité Neuro RT sur l'Akida Edge AI Box afin de protéger les réseaux de petites entreprises.

Pour rappel, l’Akida AKD1000 est une puce fabriquée dans un process en 28 nm chez le fondeur TSMC et architecturée autour d’un cœur Arm Cortex-M4 et d’une matrice neuronale à 80 unités élémentaires de traitement (NPU, Neural Processor Unit). Grâce à une carte au format M.2, le SoC peut être connecté à n'importe quel processeur ou microcontrôleur à travers un bus USB ou PCI tout en bénéficiant de l'écosystème de développement logiciel qui l'accompagne.

Ce processeur neuronal s’appuie sur une technologie fondée sur les événements qui consomme intrinsèquement, selon Brainchip, moins d'énergie que les accélérateurs de réseaux neuronaux classiques. Le bloc d'IP prend en charge l'apprentissage incrémental et l'inférence à haute vitesse dans une grande variété de cas d'utilisation, tels que les réseaux neuronaux convolutionnels avec un débit élevé et des hautes performances pour une faible consommation.

Les cartes intégrant l’AKD1000 peuvent ainsi bénéficier de leur emplacement  M.2 standard pour de l'IA dans un système avec une consommation inférieure à 1 W ce qui autorise le développement d’applications à base d’IA dans des systèmes embarqués où l’espace et la consommation sont contraints.

De son côté l’Akida 1500 de Brainchip fabriquée en technologie SOI en 22 nm, procure plus de 0,7 TOPS de puissance de calcul événementiel tout en consommant moins de 250 mW, atteignant des performances comparables au traitement des réseau de neurone conventionnel (CNN, réseaux de neurones convolutifs) avec une consommation, à puissance de calcul égale, de 3 à 10 fois inférieure.

L'entreprise affirme en outre que ces puces prennent également en charge les grands modèles de langage embarqués grâce à son architecture TENN (Temporal Event-based Neural Networks) autorisant la mise en place d’une IA générique privée et en temps réel sans envoi de données vers le cloud.