- Les réseaux neuronaux impulsionnels (SNNs) communiquent par des spikes et activent les neurones uniquement lorsque le seuil est atteint, rendant le calcul événementiel et très économe en énergie.
- Dans l’informatique neuromorphique, mémoire et calcul sont co-localisés dans chaque neurone via le principe de compute-in-memory, ce qui réduit les transferts de données.
- TrueNorth d’IBM (2014) intègre 1 million de neurones, 256 millions de synapses, 5,4 milliards de transistors et 4 096 cœurs neurosynaptiques, tout en consommant moins de 100 milliwatts.
- Loihi d’Intel (2017) est une puce numérique à 128 cœurs avec 130 000 neurones et 130 millions de synapses, dotée d’un moteur d’apprentissage embarqué pour modifier les poids en temps réel.
- NorthPole d’IBM (2023) contient 22 milliards de transistors dans un boîtier de 800 mm² et élimine la mémoire hors puce, offrant environ 25× d’économie d’énergie et 22× de rapidité sur la reconnaissance d’images par rapport aux meilleures puces IA conventionnelles.
- Hala Point d’Intel (avril 2024) réunit 1 152 puces Loihi 2, soit environ 1,15 milliard de neurones, et atteint plus de 20 quadrillions d’opérations par seconde et plus de 15 trillions d’opérations par seconde par watt, déployé aux Sandia National Laboratories.
- SpiNNaker de l’Université de Manchester (2018) dispose d’un réseau d’un million de cœurs capable de simuler un milliard de neurones impulsionnels en temps réel.
- BrainScaleS, soutenu par le Human Brain Project (2013–2023), utilise des circuits analogiques sur des tranches de silicium pour émuler des réseaux neuronaux et est accessible via EBRAINS.
- Les applications actuelles couvrent les véhicules autonomes, l’IA en périphérie et les capteurs IoT, avec des drones et montres capables d’analyser des signs biosensibles ou de percevoir des obstacles sur place.
- En 2025, les défis majeurs incluent la maturation technologique, le manque de normes et d’outils logiciels (comme Lava pour Loihi et Nengo), un changement de paradigme en programmation et des difficultés de scalabilité et de fabrication des dispositifs analogiques, avec une croissance estimée de 25 à 30 % CAGR d’ici 2030.
Qu’est-ce que l’informatique neuromorphique (et comment ça marche) ?
L’informatique neuromorphique – parfois appelée informatique inspirée du cerveau – est une approche de la conception des ordinateurs qui imite la structure et la fonction du cerveau humain ibm.com. Au lieu du modèle traditionnel où des unités séparées gèrent le traitement et la mémoire, les systèmes neuromorphiques intègrent ces fonctions dans des réseaux de « neurones » et de « synapses » artificiels, à l’image d’un cerveau biologique. En termes simples, une puce neuromorphique est une puce informatique qui fonctionne comme un réseau de cellules cérébrales, traitant l’information à travers un grand nombre de neurones interconnectés en.wikipedia.org.
Au cœur de l’informatique neuromorphique se trouvent les réseaux neuronaux impulsionnels (SNNs) – des réseaux de neurones artificiels qui communiquent via de brèves impulsions électriques appelées « spikes » (pointes), analogues aux pointes de tension dans les neurones biologiques ibm.com. Chaque neurone accumule les signaux entrants au fil du temps et « déclenche » une impulsion vers d’autres neurones seulement lorsqu’un certain seuil est atteint ibm.com. Si les entrées restent en dessous du seuil, le signal finit par s’estomper (on parle souvent de la charge du neurone qui s’échappe). Ce style de calcul basé sur les événements signifie que, contrairement aux processeurs conventionnels qui fonctionnent en continu, les puces neuromorphiques restent pour la plupart inactives et n’activent les neurones que lorsqu’il y a des données à traiter pawarsaurav842.medium.com. En conséquence, elles consomment beaucoup moins d’énergie – la majeure partie du réseau « semblable au cerveau » reste inactive jusqu’à ce qu’elle soit nécessaire, tout comme nos cerveaux comptent des milliards de neurones mais qu’un faible pourcentage seulement s’active à un moment donné pawarsaurav842.medium.com.
Une autre caractéristique clé est que le traitement et la mémoire sont co-localisés. Dans une conception neuromorphique, chaque neurone peut à la fois stocker et traiter l’information, alors que dans un ordinateur classique, les données sont constamment déplacées entre le processeur (CPU) et des banques de mémoire séparées. En intégrant la mémoire dans les éléments de calcul (les neurones), les puces neuromorphiques évitent le goulet d’étranglement du transfert de données des architectures traditionnelles spectrum.ieee.org, newsroom.intel.com. Cela permet un parallélisme massif et une grande efficacité : de nombreux neurones travaillent simultanément, et seule une communication locale est nécessaire. Comme l’explique le responsable de la recherche neuromorphique d’IBM, Dharmendra Modha, « Le cerveau est bien plus économe en énergie que les ordinateurs modernes, en partie parce qu’il stocke la mémoire avec le calcul dans chaque neurone. » spectrum.ieee.org. En effet, les systèmes neuromorphiques fonctionnent davantage comme des réseaux neuronaux vivants que comme des ordinateurs sériels conventionnels, permettant le traitement de l’information en temps réel et une communication clairsemée, déclenchée par des événements entre les neurones nature.com.
Brève histoire et étapes clés
L’informatique neuromorphique peut sembler futuriste, mais ses origines conceptuelles remontent aux années 1980. Le terme « neuromorphique » (signifiant « en forme de cerveau ») a été inventé par Carver Mead, un professeur de Caltech qui a été un pionnier dans ce domaine à la fin des années 1980 colocationamerica.com. À cette époque, Mead et ses collègues comme Misha Mahowald ont construit les premiers « neurones en silicium » expérimentaux et des puces sensorielles – par exemple, une rétine en silicium analogique capable de détecter la lumière comme un œil humain, et une cochlée en silicium qui traitait le son ibm.com. Ces premières puces ont démontré que des circuits électroniques pouvaient émuler des fonctions neuronales de base, suscitant l’idée que les ordinateurs pourraient un jour fonctionner davantage comme des cerveaux.
À travers les années 1990 et 2000, le neuromorphic engineering est resté principalement dans le milieu universitaire et les laboratoires de recherche, progressant régulièrement en arrière-plan. Un jalon majeur a été franchi en 2014 avec la puce TrueNorth d’IBM, développée dans le cadre du programme SyNAPSE de la DARPA. TrueNorth intégrait 1 million de « neurones » et 256 millions de « synapses » sur une seule puce, avec un impressionnant 5,4 milliards de transistors – tout en consommant moins de 100 milliwatts de puissance darpa.mil. Ce « cerveau sur une puce », inspiré par l’architecture des cerveaux de mammifères, pouvait effectuer des tâches complexes de reconnaissance de formes avec deux ordres de grandeur de moins d’énergie que les processeurs conventionnels darpa.mil. La conception de TrueNorth était orientée événement et massivement parallèle : 4 096 cœurs neurosynaptiques communiquaient par impulsions, démontrant la faisabilité du matériel neuromorphique à grande échelle. IBM comparait l’échelle de TrueNorth (un million de neurones) à celle du cerveau d’une abeille ou d’un cafard, et cela a prouvé que les puces neuromorphiques pouvaient être à la fois économes en énergie et capables de tâches similaires à celles du cerveau darpa.mil.Un autre bond en avant a eu lieu en 2017 lorsque Intel a présenté sa puce neuromorphique Loihi. Loihi était un processeur neuromorphique entièrement numérique doté de 128 cœurs avec 130 000 neurones et 130 millions de synapses implémentés en silicium pawarsaurav842.medium.com. Fait important, Loihi était doté d’un apprentissage embarqué : chaque cœur neuronal possédait un moteur d’apprentissage intégré, permettant à la puce de modifier les poids synaptiques et « d’apprendre » à partir de motifs au fil du temps. Lors d’une démonstration, Intel a montré que Loihi pouvait apprendre à reconnaître les odeurs de produits chimiques dangereux – en somme, apprendre à une puce à sentir en traitant les données de capteurs olfactifs d’une manière similaire au cerveau pawarsaurav842.medium.com. Cette capacité d’auto-apprentissage a mis en évidence la façon dont les systèmes neuromorphiques peuvent s’adapter en temps réel, une étape au-delà de l’exécution de réseaux neuronaux pré-entraînés.
Depuis lors, les progrès se sont accélérés. Les universités ont construit des superordinateurs neuromorphiques spécialisés comme SpiNNaker (Université de Manchester), une machine dotée de plus d’un million de petits processeurs conçue pour simuler un milliard de neurones impulsionnels en temps réel pawarsaurav842.medium.com. En Europe, le projet décennal Human Brain Project (2013–2023) a soutenu des plateformes neuromorphiques telles que BrainScaleS (Université de Heidelberg), qui utilise des circuits électroniques analogiques pour émuler des neurones, ainsi qu’une version de SpiNNaker – toutes deux accessibles aux chercheurs via l’infrastructure de recherche EBRAINS ibm.com. Ces projets académiques de grande envergure ont constitué des étapes clés pour démontrer comment les principes neuromorphiques pouvaient passer à l’échelle supérieure.Du côté de l’industrie, IBM, Intel et d’autres continuent de repousser les frontières. Le dernier développement neuromorphique d’IBM, révélé en 2023, porte le nom de code NorthPole – une puce qui fusionne encore plus étroitement mémoire et traitement. NorthPole atteint des gains spectaculaires en vitesse et en efficacité, étant apparemment 25× plus économe en énergie et 22× plus rapide que les meilleures puces IA conventionnelles pour les tâches de reconnaissance d’images spectrum.ieee.org. Elle contient 22 milliards de transistors dans un boîtier de 800 mm², et en éliminant totalement la mémoire hors puce, elle réduit considérablement l’énergie gaspillée à déplacer les données spectrum.ieee.org. Les chercheurs d’IBM décrivent NorthPole comme « une avancée majeure en architecture de puce qui apporte des améliorations massives en efficacité énergétique, spatiale et temporelle » research.ibm.com, s’appuyant sur les leçons tirées de TrueNorth une décennie plus tôt. En parallèle, Intel a dévoilé en 2021 une puce de seconde génération, Loihi 2, et en 2024 a annoncé Hala Point, un super-système neuromorphique contenant 1 152 puces Loihi 2 pour un total de 1,2 milliard de neurones – ce qui approche la capacité cérébrale d’un petit oiseau (une chouette) newsroom.intel.com. Déployé aux laboratoires nationaux Sandia, Hala Point est actuellement le plus grand ordinateur neuromorphique au monde, destiné à explorer la recherche en IA à l’échelle du cerveau.
Des neurones à un transistor de Carver Mead aux systèmes actuels à un milliard de neurones, l’informatique neuromorphique est passée d’une idée académique de niche à une technologie de pointe. Cette histoire est marquée par des améliorations constantes en termes d’échelle, d’efficacité énergétique et de réalisme du traitement de type cérébral, préparant le terrain pour la prochaine ère de l’informatique.
Technologies clés de l’informatique neuromorphique
L’informatique neuromorphique réunit des innovations dans les dispositifs matériels et les modèles de réseaux neuronaux. Certaines des technologies clés permettant cette approche inspirée du cerveau incluent :- Réseaux neuronaux impulsionnels (SNNs) : Comme mentionné, les SNNs constituent la colonne vertébrale algorithmique des systèmes neuromorphiques. Ils sont parfois appelés la « troisième génération » de réseaux neuronaux pawarsaurav842.medium.com, intégrant l’élément temporel dans les modèles de neurones. Contrairement aux activations continues et stables des réseaux neuronaux artificiels standards, les neurones impulsionnels communiquent par des impulsions discrètes, permettant un codage temporel (l’information est transmise par le timing des impulsions) et un fonctionnement événementiel. Les SNNs peuvent modéliser des phénomènes comme le timing neuronal, les périodes réfractaires et la plasticité (apprentissage via les changements de force synaptique) de façon plus naturelle que les réseaux traditionnels ibm.com. Cela les rend particulièrement adaptés au traitement en temps réel de flux de données sensorielles (vision, audio, etc.). Cependant, développer des algorithmes d’apprentissage pour les SNNs est une tâche complexe – les chercheurs utilisent des méthodes allant de la conversion de réseaux profonds entraînés en équivalents impulsionnels à des règles d’apprentissage bio-inspirées ibm.com. Les SNNs constituent un domaine de recherche dynamique et un élément clé du puzzle neuromorphique.
- Memristors et nouveaux dispositifs : De nombreuses plateformes neuromorphiques utilisent encore des transistors en silicium conventionnels, mais il existe un grand intérêt pour de nouveaux dispositifs comme les memristors (résistances à mémoire). Un memristor est un élément électronique à l’échelle nanométrique qui peut simultanément stocker des données (comme une mémoire) et effectuer des calculs (comme une résistance/un réseau) en modifiant sa résistance selon le flux de courant – imitant essentiellement la capacité d’une synapse à « se souvenir » en renforçant ou affaiblissant les connexions ibm.com. Les memristors et autres technologies de mémoire résistive (par exemple, mémoire à changement de phase, dispositifs ferroélectriques, dispositifs spintroniques) peuvent implémenter des synapses « analogiques » qui se mettent à jour de façon continue, permettant des architectures de calcul en mémoire. En intégrant la mémoire dans les mêmes dispositifs physiques qui effectuent le calcul, ils abolissent davantage la séparation inhérente au paradigme informatique traditionnel. Ces composants émergents promettent des gains d’efficacité de plusieurs ordres de grandeur ; cependant, ils restent expérimentaux en 2025 et font face à des défis de fiabilité et de fabrication. Comme l’a noté un expert, les systèmes neuromorphiques analogiques ont un énorme potentiel mais « n’ont pas encore atteint la maturité technologique », c’est pourquoi de nombreux designs actuels (comme NorthPole d’IBM et Loihi d’Intel) s’en tiennent aux circuits numériques comme solution à court terme spectrum.ieee.org.
- Circuits asynchrones et matériel piloté par les événements : Les puces neuromorphiques utilisent souvent une logique asynchrone, ce qui signifie qu’elles ne possèdent pas une seule horloge globale synchronisant chaque opération. Au lieu de cela, le calcul est distribué et déclenché par événement. Lorsqu’un neurone émet un spike, il déclenche les neurones en aval ; s’il n’y a pas d’activité, certaines parties du circuit deviennent inactives. Cette approche matérielle, parfois appelée conception « sans horloge » ou basée sur les événements, prend directement en charge les charges de travail clairsemées et pilotées par les spikes des SNN. C’est un changement par rapport à la conception synchrone de la plupart des CPU/GPU. Par exemple, le TrueNorth d’IBM fonctionnait entièrement de manière asynchrone, et ses neurones communiquaient via des paquets dans un réseau sur puce lorsque des événements se produisaient darpa.mil. Cela permet non seulement d’économiser de l’énergie, mais aussi de s’aligner sur la façon dont les réseaux neuronaux biologiques fonctionnent en parallèle sans horloge maîtresse.
- Architecture « compute-in-memory » : Un terme souvent associé aux puces neuromorphiques est compute-in-memory, où les éléments de mémoire (qu’il s’agisse de SRAM, de mémoire non-volatile ou de memristors) sont co-localisés avec les unités de calcul. Ce faisant, les conceptions neuromorphiques minimisent le déplacement de données – l’une des principales sources de consommation d’énergie en informatique newsroom.intel.com. En pratique, cela peut signifier que chaque cœur de neurone sur une puce possède sa propre mémoire locale stockant son état et ses poids synaptiques, éliminant ainsi les allers-retours constants vers la DRAM externe. La puce NorthPole d’IBM en est un exemple : elle élimine complètement la mémoire hors puce, plaçant tous les poids sur la puce et faisant apparaître la puce comme un dispositif de « mémoire active » pour un système spectrum.ieee.org. Le compute-in-memory peut être réalisé numériquement (comme le fait NorthPole) ou de manière analogique (en utilisant des réseaux de memristors pour effectuer des opérations matricielles sur place). Ce concept est central pour atteindre une efficacité proche de celle du cerveau.
En résumé, l’informatique neuromorphique s’inspire de la neuroscience (neurones à spikes, synapses plastiques), de matériels innovants (memristors, mémoire à changement de phase), et de conceptions de circuits non traditionnelles (pilotées par événements, intégration mémoire-calcul) pour créer des systèmes informatiques qui fonctionnent selon des principes complètement différents de ceux des puces énergivores d’aujourd’hui.
Neuromorphique vs. paradigmes informatiques traditionnels
Pour apprécier l’informatique neuromorphique, il est utile de la comparer à l’architecture traditionnelle de Von Neumann qui domine depuis le milieu du XXe siècle. Dans un ordinateur classique (qu’il s’agisse d’un PC ou d’un smartphone), la conception est fondamentalement sérielle et séparée : un processeur central va chercher les instructions et les données dans la mémoire, les exécute (l’une après l’autre, très rapidement), puis écrit les résultats en mémoire. Même si les CPU et GPU modernes utilisent des cœurs ou des pipelines parallèles, ils souffrent toujours du fameux goulot d’étranglement de Von Neumann – la nécessité de déplacer continuellement les données vers et depuis la mémoire, ce qui coûte du temps et de l’énergie colocationamerica.com, spectrum.ieee.org. Imaginez un chef qui doit courir au garde-manger pour chaque ingrédient avant de couper et de mélanger ; c’est à peu près ainsi que fonctionnent les ordinateurs classiques.
Les ordinateurs neuromorphiques, en revanche, fonctionnent plutôt comme un vaste réseau de mini-processeurs (neurones) travaillant tous en parallèle, chacun avec sa propre mémoire locale. Il n’y a ni horloge centrale ni compteur de programme avançant séquentiellement dans les instructions. Au lieu de cela, le calcul se fait collectivement et de façon asynchrone : des milliers ou des millions de neurones effectuent des opérations simples simultanément et communiquent les résultats par des impulsions. Cela s’apparente à la façon dont le cerveau humain traite les tâches – des milliards de neurones s’activant en parallèle, sans CPU unique aux commandes. Le résultat est un système pouvant être massivement parallèle et piloté par les événements, traitant de nombreux signaux à la fois et attendant naturellement lorsqu’il n’y a rien à faire.
Les avantages incluent la rapidité grâce au parallélisme et une efficacité énergétique bien supérieure. Un processeur traditionnel peut consommer 100 watts pour exécuter un grand modèle d’IA, principalement à cause de l’activation de milliards de transistors et du transfert de données vers et depuis les mémoires cache. En revanche, les puces neuromorphiques utilisent des événements et des activations neuronales clairsemées : si seulement 5 % des neurones sont actifs à un instant donné, les 95 % restants ne consomment pratiquement aucune énergie. Cette activité clairsemée est l’une des raisons pour lesquelles les architectures neuromorphiques ont démontré jusqu’à 1000× plus d’efficacité énergétique sur certaines tâches d’IA par rapport aux CPU/GPU medium.com. En fait, le cerveau humain, auquel nos conceptions neuromorphiques aspirent, fonctionne avec seulement 20 watts environ (moins qu’une ampoule faible) tout en surpassant les superordinateurs actuels dans des domaines comme la vision et la reconnaissance de formes medium.com. Comme l’a dit Mike Davies, directeur du laboratoire neuromorphique d’Intel : « Le coût informatique des modèles d’IA actuels augmente à un rythme insoutenable. L’industrie a besoin d’approches fondamentalement nouvelles capables de passer à l’échelle. » newsroom.intel.com L’informatique neuromorphique offre justement une telle nouvelle approche en intégrant la mémoire au calcul et en s’appuyant sur des architectures massivement parallèles, semblables au cerveau, pour minimiser les transferts de données et la consommation d’énergie newsroom.intel.com.Cependant, il est important de noter que l’informatique neuromorphique n’est pas un substitut universel à toute l’informatique. Les processeurs déterministes traditionnels excellent dans les tâches précises et linéaires (comme l’arithmétique, les requêtes de bases de données, etc.), tandis que les systèmes neuromorphiques excellent dans les tâches sensorielles, perceptuelles et de reconnaissance de motifs où le traitement de type cérébral est optimal. Dans de nombreux scénarios futurs, les puces neuromorphiques viendront compléter les CPU et GPU classiques – agissant comme des coprocesseurs spécialisés pour les charges de travail d’IA impliquant la perception, l’apprentissage ou l’adaptation, tout comme les GPU accélèrent aujourd’hui les graphismes et les calculs de réseaux neuronaux. Les deux paradigmes peuvent coexister, le matériel neuromorphique prenant en charge les tâches « de type cérébral » de manière fondamentalement plus efficace. En somme, les machines de Von Neumann sont comme des calculateurs séquentiels, tandis que les machines neuromorphiques sont comme des reconnaisseurs de motifs parallèles – chacune a sa place.
Principaux acteurs et projets qui font avancer la technologie neuromorphique
L’informatique neuromorphique est un effort multidisciplinaire qui réunit entreprises technologiques, laboratoires de recherche et universités. De grandes entreprises, des startups et des agences gouvernementales se sont toutes lancées dans la course pour développer du matériel et des logiciels inspirés du cerveau. Voici quelques-uns des principaux acteurs et projets en 2025 :
- IBM : IBM a été un pionnier dans la recherche sur l’informatique cognitive. Au-delà de la puce révolutionnaire TrueNorth (2014) avec 1 million de neurones, l’équipe de recherche d’IBM dirigée par Dharmendra Modha a récemment présenté NorthPole (2023), une puce neuromorphique de nouvelle génération pour l’inférence. L’innovation de NorthPole réside dans l’intégration étroite du calcul et de la mémoire sur la puce, offrant une efficacité sans précédent pour les tâches d’inférence IA spectrum.ieee.org. IBM rapporte que NorthPole peut surpasser même les GPU de pointe sur des benchmarks comme la reconnaissance d’images tout en n’utilisant qu’une fraction de la puissance spectrum.ieee.org. La vision à long terme d’IBM est d’utiliser de telles puces pour alimenter des systèmes d’IA beaucoup plus économes en énergie, permettant potentiellement à l’IA de fonctionner partout, des centres de données aux dispositifs en périphérie, sans les contraintes énergétiques actuelles.
- Intel : Intel a créé un Neuromorphic Computing Lab dédié et a introduit la famille de puces Loihi. Le premier Loihi (2017) et Loihi 2 (2021) sont des puces de recherche mises à disposition des universités et entreprises via la Neuromorphic Research Community d’Intel. L’approche d’Intel est entièrement numérique mais avec des cœurs à spikes asynchrones et un apprentissage embarqué. En avril 2024, Intel a annoncé Hala Point, essentiellement un superordinateur neuromorphique avec plus d’un millier de puces Loihi 2 connectées ensemble newsroom.intel.com. Hala Point, déployé aux Sandia Labs, peut simuler plus d’1 milliard de neurones et sert à explorer des algorithmes à grande échelle inspirés du cerveau et des systèmes d’IA à apprentissage continu newsroom.intel.com. Intel considère la technologie neuromorphique comme essentielle pour une IA plus durable, visant à réduire drastiquement la puissance nécessaire à l’entraînement et à l’inférence des modèles d’IA newsroom.intel.com. Comme l’a souligné Mike Davies lors du lancement, faire évoluer l’IA actuelle avec le matériel existant est prohibitif en énergie, c’est pourquoi Intel mise sur les conceptions neuromorphiques pour franchir ce mur d’efficacité newsroom.intel.com.
- Qualcomm : Qualcomm a exploré les principes neuromorphiques pour l’IA basse consommation sur les appareils. Dès le début (vers 2013-2015), elle a développé une plateforme appelée « Zeroth » et a démontré des accélérateurs de réseaux neuronaux impulsionnels pour des tâches telles que la reconnaissance de motifs sur smartphones. Ces dernières années, les efforts neuromorphiques de Qualcomm sont moins publics, mais des rapports suggèrent qu’ils poursuivent la R&D, d’autant plus que l’informatique neuromorphique s’aligne avec l’IA en périphérie ultra-basse consommation (ce qui correspond naturellement à l’activité de Qualcomm dans les puces mobiles et embarquées) medium.com. L’intérêt de Qualcomm souligne que même les fabricants de puces mobiles voient un potentiel dans les conceptions inspirées du cerveau pour répondre aux exigences de l’IA sans vider les batteries des appareils.
- BrainChip Holdings : Startup australienne, BrainChip est l’une des premières à commercialiser de la propriété intellectuelle neuromorphique. Leur processeur neuromorphique Akida est une conception entièrement numérique, basée sur les événements, qui peut être utilisée comme accélérateur d’IA dans les appareils en périphérie brainchip.com. BrainChip met l’accent sur l’apprentissage et l’inférence en temps réel avec de faibles budgets énergétiques – par exemple, ajouter la reconnaissance locale de gestes ou d’anomalies à des capteurs IoT ou à des véhicules sans connectivité cloud. En 2025, BrainChip collabore avec des partenaires pour intégrer Akida dans des produits allant des capteurs intelligents aux systèmes aérospatiaux, et a même démontré le traitement neuromorphique pour des applications spatiales (en travaillant avec des organisations comme la NASA et le Air Force Research Lab) embedded.com, design-reuse.com. Des startups comme BrainChip illustrent l’intérêt commercial croissant pour l’introduction de la technologie neuromorphique sur le marché de l’IA en périphérie et de l’IoT.
- Laboratoires universitaires et gouvernementaux : Sur le plan académique, plusieurs universités et consortiums ont construit d’importants systèmes neuromorphiques. Nous avons mentionné SpiNNaker (Université de Manchester, Royaume-Uni) qui, en 2018, a réalisé un réseau neuronal matériel avec un million de cœurs, visant à modéliser 1 % des neurones du cerveau humain en temps réel pawarsaurav842.medium.com. Il y a aussi BrainScaleS (Université de Heidelberg, Allemagne), qui utilise des circuits analogiques sur de grandes tranches de silicium pour émuler des réseaux neuronaux à des vitesses accélérées (effectuant en quelque sorte une “avance rapide” des processus neuronaux pour étudier l’apprentissage). Aux États-Unis, des instituts de recherche comme Stanford (qui a créé le système Neurogrid capable de simuler un million de neurones ibm.com) et le MIT, entre autres, disposent de laboratoires actifs en ingénierie neuromorphique. Des agences gouvernementales comme DARPA ont continué à financer des programmes (par exemple, le programme en cours “Electronic Photonic Neural Networks” explorant les puces neuromorphiques photoniques). Parallèlement, le projet Human Brain de l’UE (HBP) a fortement investi dans les infrastructures neuromorphiques via sa plateforme de calcul neuromorphique, et ses initiatives successeures sous l’infrastructure de recherche EBRAINS continuent de fournir un accès au matériel neuromorphique pour les scientifiques ibm.com.
- Autres acteurs industriels : Au-delà d’IBM et Intel, des entreprises comme Samsung et HRL Laboratories se sont intéressées à la technologie neuromorphique. En 2021, des chercheurs de Samsung ont annoncé une vision pour « copier-coller » les connexions neuronales du cerveau sur des puces mémoire, utilisant essentiellement des réseaux de mémoire 3D pour cartographier la connectivité d’un cerveau biologique sous forme de système neuromorphique – un objectif ambitieux encore loin d’une mise en œuvre pratique. HRL Labs (co-détenu par Boeing et GM) a développé une puce neuromorphique à memristors qui a démontré l’apprentissage en un coup en 2019 (l’appareil pouvait apprendre à reconnaître un motif à partir d’un seul exemple). De plus, des startups européennes comme GrAI Matter Labs (avec ses puces GrAI “NeuronFlow” ibm.com) et SynSense (une société basée à Zurich/Chine connue pour ses puces de vision ultra-basse consommation) sont des contributeurs notables.
En résumé, le domaine neuromorphique est un mélange collaboratif de géants technologiques repoussant les limites, startups apportant de l’innovation à des marchés spécialisés, et consortiums académiques explorant de nouveaux horizons. Cet écosystème large accélère les progrès et fait sortir les idées neuromorphiques du laboratoire pour les amener vers des applications concrètes.
Applications actuelles et cas d’usage réels
L’informatique neuromorphique est encore une technologie émergente, donc ses applications dans le monde réel en sont à leurs débuts – mais il y a eu des démonstrations prometteuses dans divers domaines. Pensez aux tâches que notre cerveau gère remarquablement bien (et efficacement) mais avec lesquelles les ordinateurs conventionnels ont du mal, et c’est là que les systèmes neuromorphiques excellent. Voici quelques cas d’utilisation notables et applications potentielles :
- Véhicules autonomes : Les voitures et drones autonomes doivent réagir à des environnements dynamiques en temps réel. Les puces neuromorphiques, avec leur traitement parallèle rapide et leur faible consommation d’énergie, peuvent aider les véhicules à percevoir et à prendre des décisions de manière plus similaire à un conducteur humain. Par exemple, un processeur neuromorphique peut recevoir des données de caméras et de capteurs et détecter des obstacles ou prendre des décisions de navigation avec une très faible latence. Des chercheurs d’IBM notent que l’informatique neuromorphique pourrait permettre des corrections de trajectoire plus rapides et l’évitement des collisions dans les véhicules autonomes, tout en réduisant considérablement la consommation d’énergie (important pour les véhicules électriques et les drones) ibm.com. Concrètement, un réseau neuronal impulsionnel pourrait analyser en continu l’environnement d’une voiture, mais n’activer les neurones que lorsqu’un événement pertinent survient (comme un piéton traversant la route), permettant des réflexes rapides sans gaspiller d’énergie sur des calculs inutiles.
- Cybersécurité et détection d’anomalies : Les systèmes de cybersécurité doivent repérer des schémas inhabituels (intrusions potentielles ou fraudes) dans d’immenses flux de données. Les architectures neuromorphiques sont naturellement douées pour la reconnaissance de motifs et peuvent être utilisées pour signaler des anomalies en temps réel. Parce qu’elles sont pilotées par les événements, elles peuvent surveiller le trafic réseau ou les données de capteurs et ne réagir que lorsqu’un schéma vraiment anormal apparaît. Cela permet une détection des menaces en temps réel avec une faible latence, et c’est suffisamment économe en énergie pour qu’un tel système puisse potentiellement fonctionner en continu sur un matériel modeste ibm.com. Certaines expériences ont utilisé des puces neuromorphiques pour détecter des intrusions réseau ou des fraudes par carte bancaire en apprenant les schémas « normaux » puis en repérant les écarts sans devoir traiter chaque point de données via un CPU énergivore.
- IA en périphérie et appareils IoT : L’un des cas d’utilisation les plus immédiats de l’informatique neuromorphique concerne les appareils en périphérie – tels que les capteurs intelligents, les objets connectés portables ou les appareils électroménagers – où l’énergie et les ressources de calcul sont limitées. Le fonctionnement ultra-basse consommation des puces neuromorphiques leur permet d’apporter des capacités d’IA (comme la reconnaissance vocale, la reconnaissance de gestes ou la détection d’événements) à ces appareils sans avoir besoin de serveurs cloud ni de recharges fréquentes de batterie ibm.com. Par exemple, un drone équipé d’un capteur de vision neuromorphique pourrait naviguer et éviter les obstacles de façon autonome, en réagissant aussi rapidement et efficacement qu’une chauve-souris utilisant l’écholocation. Des drones dotés de systèmes de vision neuromorphique ont démontré leur capacité à traverser des terrains complexes et à réagir aux changements en n’augmentant la puissance de calcul que lorsqu’il y a de nouvelles entrées sensorielles, à l’image du fonctionnement du cerveau d’un être vivant builtin.com. De même, une montre connectée ou un moniteur de santé équipé d’une minuscule puce neuromorphique pourrait analyser en continu les biosignaux (rythme cardiaque, EEG, etc.) localement, détecter en temps réel des anomalies comme des arythmies ou des crises, et cela pendant plusieurs jours avec une seule charge – ce qui est extrêmement difficile avec des puces conventionnelles. (En fait, une anecdote récente a rapporté qu’une montre connectée alimentée par une puce neuromorphique a détecté sur le moment une arythmie cardiaque chez un patient, ce qui aurait été difficile avec une analyse basée sur le cloud medium.com.)
- Reconnaissance de motifs et informatique cognitive : Les systèmes neuromorphiques sont naturellement performants pour les tâches impliquant la reconnaissance de motifs dans des données bruitées – qu’il s’agisse d’images, de sons ou de signaux de capteurs. Ils ont été utilisés dans des configurations expérimentales pour la reconnaissance d’images, le traitement de la parole et de l’audition, et même la détection olfactive (comme avec la puce Loihi d’Intel apprenant différentes odeurs) pawarsaurav842.medium.com. Les puces neuromorphiques peuvent aussi s’interfacer avec des capteurs analogiques (comme les capteurs de vision dynamique qui produisent des impulsions lors de changements dans une scène) pour créer des systèmes de détection neuromorphiques de bout en bout. En médecine, les processeurs neuromorphiques pourraient analyser des flux de signaux biomédicaux (par exemple, les ondes cérébrales EEG) et identifier des événements ou motifs significatifs pour le diagnostic ibm.com. Leur capacité à apprendre et à s’adapter signifie aussi qu’ils pourraient personnaliser la reconnaissance de motifs directement sur l’appareil – par exemple, une aide auditive neuromorphique pourrait s’adapter en continu à l’environnement spécifique de l’utilisateur et améliorer la façon dont elle filtre le bruit par rapport à la parole.
- Robotique et contrôle en temps réel : La robotique nécessite souvent des boucles de rétroaction serrées pour contrôler les moteurs, interpréter les capteurs et prendre des décisions à la volée. Les contrôleurs neuromorphiques peuvent donner aux robots une forme de réflexes et d’adaptabilité. Parce qu’ils traitent l’information en parallèle et peuvent apprendre à partir des retours sensoriels, ils sont bien adaptés à des tâches comme l’équilibre, la préhension ou la marche sur un terrain imprévisible. Des chercheurs ont utilisé des puces neuromorphiques pour contrôler des bras et des jambes robotiques, où le contrôleur peut apprendre à ajuster les signaux moteurs en fonction des entrées des capteurs en temps réel, de manière similaire à la façon dont un humain apprend des compétences motrices. Un avantage observé est que les robots alimentés par des réseaux neuronaux impulsionnels peuvent continuer à fonctionner même si certains neurones tombent en panne (une sorte de dégradation progressive), offrant une tolérance aux pannes semblable à celle des systèmes biologiques colocationamerica.com. Des entreprises comme Boston Dynamics ont laissé entendre qu’elles exploraient des systèmes inspirés du neuromorphisme pour améliorer l’efficacité et les temps de réaction des robots. Dans l’industrie manufacturière, un système de vision neuromorphique pourrait permettre à un robot de reconnaître des objets ou de naviguer plus naturellement sur un sol d’usine encombré et de réagir plus rapidement aux changements soudains builtin.com.
- Interfaces cerveau-machine et neurosciences : Puisque les puces neuromorphiques fonctionnent selon des principes très proches de ceux du cerveau biologique, elles sont utilisées comme outils pour comprendre les neurosciences et même interagir avec des neurones vivants. Par exemple, des scientifiques peuvent connecter des cultures neuronales vivantes à du matériel neuromorphique pour créer des systèmes hybrides, utilisant la puce pour stimuler ou surveiller les neurones biologiques d’une manière que les ordinateurs classiques ne peuvent pas facilement faire en temps réel. De plus, les modèles neuromorphiques aident les neuroscientifiques à tester des hypothèses sur le fonctionnement de certains circuits neuronaux du cerveau, en reproduisant ces circuits in silico et en observant s’ils se comportent de façon similaire. Bien qu’il s’agisse davantage d’applications de recherche que commerciales, cela souligne la polyvalence de la technologie.
Il convient de noter que beaucoup de ces applications sont encore à l’état de prototype ou de recherche. L’informatique neuromorphique en 2025 en est à peu près là où l’IA conventionnelle était peut-être au début des années 2010 – on observe des démonstrations prometteuses et des usages de niche, mais la technologie commence tout juste à sortir du laboratoire. Des cabinets de conseil technologique comme Gartner et PwC ont cité l’informatique neuromorphique comme une technologie émergente à surveiller dans les prochaines années ibm.com. On s’attend à ce qu’avec la maturation du matériel et des logiciels, nous voyions des processeurs neuromorphiques permettre aux appareils du quotidien d’avoir une intelligence perceptive sans nécessiter d’énormes ressources informatiques. Des voitures autonomes aux minuscules implants médicaux, tout scénario où l’on a besoin de l’IA en temps réel dans un environnement contraint en énergie ou en taille pourrait être un candidat pour des solutions neuromorphiques.
Défis et limitations
Malgré son potentiel passionnant, l’informatique neuromorphique fait face à d’importants défis sur la route d’une adoption plus large. Beaucoup de ces défis proviennent du fait que les approches neuromorphiques sont radicalement différentes du statu quo, nécessitant une nouvelle réflexion à travers le matériel, les logiciels, et même l’éducation. Voici quelques-uns des principaux obstacles et limitations en 2025 :
- Maturité de la technologie : L’informatique neuromorphique n’est pas encore une technologie mature et grand public. Le cycle de la hype de Gartner la placerait dans les premiers stades – prometteuse, mais pas encore prête pour une adoption massive ibm.com. Les puces neuromorphiques actuelles sont principalement des prototypes de recherche ou des dispositifs produits en quantités limitées. Il n’existe pas encore de normes industrielles largement acceptées pour la conception matérielle neuromorphique ou les critères de performance builtin.com. Cela rend difficile pour les utilisateurs potentiels d’évaluer et de comparer les systèmes. En conséquence, les organisations explorent la technologie neuromorphique avec prudence, sachant qu’elle évolue encore et qu’elle ne surpasse pas immédiatement les solutions conventionnelles pour tous les problèmes.
- Manque de logiciels et d’outils : L’un des plus grands obstacles est l’écosystème logiciel. Le monde de l’informatique s’est construit autour des machines de Von Neumann depuis des décennies – les langages de programmation, les compilateurs, les systèmes d’exploitation et l’expertise des développeurs supposent tous une architecture traditionnelle. Le matériel neuromorphique, en revanche, nécessite une approche différente de la programmation (il s’agit davantage de concevoir des réseaux neuronaux et d’ajuster des modèles que d’écrire du code séquentiel). À l’heure actuelle, « les bons outils de développement logiciel n’existent pas vraiment » pour les systèmes neuromorphiques, comme l’a dit un chercheur builtin.com. De nombreuses expériences neuromorphiques reposent sur des logiciels personnalisés ou des adaptations de frameworks de réseaux neuronaux. Des efforts sont en cours (par exemple, le framework open source Lava d’Intel pour Loihi, ou des projets universitaires comme Nengo) mais il n’existe pas de plateforme unifiée et facile à utiliser, analogue à TensorFlow ou PyTorch, pour les réseaux neuronaux impulsionnels à grande échelle. Cette courbe d’apprentissage abrupte limite l’adoption – un développeur IA typique ne peut pas facilement prendre une puce neuromorphique et déployer une application sans une formation approfondie. Améliorer la pile logicielle, les bibliothèques et les simulateurs est une tâche cruciale pour la communauté.
- Changement de paradigme en programmation : Lié à la question des outils, il y a un changement fondamental de paradigme dans la façon de penser. Programmer un système neuromorphique n’est pas comme écrire un script Python ; cela ressemble davantage à concevoir et entraîner un modèle inspiré du cerveau. Les développeurs doivent être familiers avec des concepts de neurosciences (taux de spikes, plasticité synaptique) en plus de l’informatique. Cela signifie qu’il existe une barrière d’entrée élevée. On estime qu’il n’y a aujourd’hui que quelques centaines de véritables experts en informatique neuromorphique dans le monde builtin.com. Combler ce manque de talents est un défi – il faut soit former plus de personnes dans ce domaine interdisciplinaire, soit créer des outils de plus haut niveau qui masquent la complexité. D’ici là, l’informatique neuromorphique restera quelque peu confidentielle, accessible principalement à des groupes de recherche spécialisés.
- Scalabilité matérielle et fabrication : Construire du matériel neuromorphique qui imite de façon fiable la complexité du cerveau est extrêmement difficile. Bien que des puces numériques comme Loihi et TrueNorth aient montré qu’on peut atteindre un million de neurones ou plus, atteindre l’échelle du cerveau (86 milliards de neurones dans un cerveau humain) reste hors de portée. Plus important encore, les approches analogiques (utilisant des memristors, etc.), qui pourraient le mieux reproduire les synapses, ne sont pas encore prêtes pour la production – de nouveaux matériaux et procédés de fabrication sont nécessaires pour les rendre stables et reproductibles spectrum.ieee.org. Les dispositifs analogiques de pointe rencontrent souvent des problèmes comme la variabilité des dispositifs, la dérive ou une endurance limitée. Les puces neuromorphiques numériques, quant à elles, profitent de la fabrication CMOS standard mais peuvent sacrifier une partie de l’efficacité ou de la densité par rapport à l’analogique. Il y a aussi le défi d’intégrer les puces neuromorphiques dans les systèmes informatiques existants (interfaces de communication, formats, etc.). La puce NorthPole d’IBM tente de répondre à cela en apparaissant comme une « mémoire active » pour un système hôte spectrum.ieee.org, mais de telles solutions d’intégration restent expérimentales. En résumé, le matériel neuromorphique est à l’aube – prometteur, mais davantage de R&D est nécessaire pour le rendre robuste, évolutif et rentable pour la production de masse.
- Normalisation et référentiels : Dans l’informatique conventionnelle, nous disposons de référentiels bien définis (SPEC pour les CPU, MLPerf pour les accélérateurs d’IA, etc.) et de mesures de performance. Pour les systèmes neuromorphiques, il n’est pas encore clair comment mesurer et comparer équitablement les performances. Si une puce exécute un réseau neuronal à pointes et une autre un réseau neuronal standard, comment comparer « l’exactitude » ou le « débit » sur une tâche donnée ? De nouveaux référentiels qui mettent en avant les atouts des systèmes neuromorphiques (comme l’apprentissage continu ou la reconnaissance de motifs sous contrainte énergétique) sont en cours de développement, mais tant que la communauté ne s’accorde pas sur ceux-ci, il est difficile de prouver la valeur des solutions neuromorphiques aux non-initiés builtin.com. Ce manque de mesures et d’architectures standard signifie également que le partage des résultats entre groupes de recherche peut être problématique – ce qui fonctionne sur une puce peut ne pas être transférable sur une autre si leurs modèles de neurones ou leurs chaînes d’outils diffèrent.
- Compatibilité avec l’IA existante : Actuellement, la majorité de l’IA mondiale fonctionne sur des modèles d’apprentissage profond optimisés pour les GPU et TPU. Ces modèles utilisent des calculs à haute précision, des multiplications de matrices denses, etc., qui ne sont pas directement compatibles avec le matériel neuromorphique à pointes. Pour exploiter l’efficacité neuromorphique, il faut souvent convertir ou réentraîner un réseau neuronal standard en réseau neuronal à pointes, un processus qui peut entraîner une certaine perte de précision builtin.com. Certaines tâches peuvent voir leurs performances se dégrader lorsqu’elles sont forcées dans le paradigme à pointes. De plus, certains algorithmes d’IA (comme les grands transformeurs utilisés dans les modèles de langage) ne se prêtent pas encore de manière évidente à des implémentations à pointes. Cela signifie que les puces neuromorphiques excellent actuellement dans des domaines de niche (par exemple, la vision, le traitement de capteurs, l’apprentissage par renforcement simple), mais elles ne constituent pas à ce jour une solution universelle à tous les problèmes d’IA. Les chercheurs travaillent sur des approches hybrides et de meilleures techniques d’entraînement pour combler l’écart de précision, mais il reste difficile de garantir qu’un système neuromorphique puisse atteindre la même qualité de résultat qu’un système conventionnel pour une application donnée.
- Défis du marché et de l’écosystème : D’un point de vue commercial, l’informatique neuromorphique cherche encore sa « killer app » et une voie claire vers la commercialisation. Les investisseurs et les entreprises restent prudents car le délai de rentabilité de la technologie est incertain. Une analyse début 2025 a décrit l’informatique neuromorphique comme une « innovation prometteuse avec de grands défis de marché », notant que si le potentiel est élevé, l’absence d’applications générant des revenus immédiats en fait un pari risqué pour les entreprises omdia.tech.informa.com. Il y a un certain effet « poule et œuf » : les fabricants de matériel attendent la demande pour justifier la production de puces à grande échelle, mais les utilisateurs finaux attendent des puces accessibles pour justifier le développement d’applications. Néanmoins, la dynamique s’accélère, et des déploiements de niche (comme des puces neuromorphiques dans des satellites ou des capteurs militaires où l’énergie est précieuse) commencent à démontrer une réelle valeur, ce qui pourrait progressivement élargir le marché.
En résumé, l’informatique neuromorphique en 2025 est à la frontière de la recherche et de l’ingénierie. Le domaine fait face à des défis non triviaux en matière de développement technologique, d’outils et de construction d’écosystèmes. Pourtant, aucun de ces défis n’est un obstacle fondamental – ils ressemblent aux difficultés rencontrées par les premiers ordinateurs parallèles ou les débuts des GPU pour l’informatique générale. À mesure que la communauté s’attaque à la standardisation, améliore le matériel et forme davantage de développeurs, on peut s’attendre à ce que bon nombre de ces limitations soient réduites dans les années à venir. Une perspective de Nature en 2025 notait avec optimisme qu’après quelques faux départs, la confluence des avancées récentes (meilleurs algorithmes d’entraînement, améliorations de la conception numérique et calcul en mémoire) « promet désormais une adoption commerciale généralisée » de la technologie neuromorphique, à condition que nous résolvions la façon de programmer et de déployer ces systèmes à grande échelle nature.com. Ces solutions sont activement en cours de développement, et la décennie à venir déterminera probablement jusqu’où l’informatique neuromorphique ira à partir d’ici.
Développements récents et actualités (en 2025)
Les deux dernières années ont vu des étapes importantes et un regain d’intérêt pour l’informatique neuromorphique, indiquant que le domaine prend de l’ampleur. Voici quelques-uns des développements récents jusqu’en 2025 :
- Hala Point d’Intel – Repousser l’échelle du neuromorphique : En avril 2024, Intel a annoncé Hala Point, le plus grand système informatique neuromorphique jamais construit newsroom.intel.com. Hala Point regroupe 1 152 puces Loihi 2, atteignant une capacité neuronale d’environ 1,15 milliard de neurones (comparable au cerveau d’une chouette) newsroom.intel.com. Il est installé aux Sandia National Laboratories et sert de banc d’essai pour la recherche sur le passage à l’échelle des algorithmes neuromorphiques. Notamment, Hala Point a démontré la capacité d’exécuter des charges de travail IA classiques (comme les réseaux neuronaux profonds) avec une efficacité sans précédent – atteignant 20 quadrillions d’opérations par seconde avec plus de 15 trillions d’opérations par seconde et par watt lors des tests newsroom.intel.com. Intel affirme que cela rivalise avec, voire dépasse, les performances de grappes de GPU/CPU sur ces tâches, mais avec une bien meilleure efficacité énergétique newsroom.intel.com. L’importance réside dans le fait que les systèmes neuromorphiques ne sont plus de simples modèles expérimentaux ; ils s’attaquent à des tâches d’IA à des échelles pertinentes pour l’industrie, laissant entendre que les approches neuromorphiques pourraient compléter, voire concurrencer, les accélérateurs d’IA actuels à l’avenir. Mike Davies d’Intel Labs a déclaré que Hala Point combine l’efficacité de l’apprentissage profond avec « un apprentissage novateur inspiré du cerveau » pour explorer une IA plus durable, et que de telles recherches pourraient conduire à des systèmes d’IA qui apprennent en continu au lieu du cycle inefficace actuel d’entraînement puis de déploiement newsroom.intel.com.
- NorthPole d’IBM et percée scientifique : Fin 2023, IBM a publié les détails de sa puce NorthPole dans la revue Science, attirant une attention considérable spectrum.ieee.org. NorthPole est importante non seulement pour ses spécifications brutes (mentionnées précédemment), mais aussi parce qu’elle montre une voie claire pour intégrer les puces neuromorphiques dans les systèmes conventionnels. De l’extérieur, elle agit comme un composant mémoire, ce qui signifie qu’elle pourrait être placée sur le bus mémoire d’un ordinateur et fonctionner avec les CPU existants spectrum.ieee.org. Ce type d’intégration est crucial pour la commercialisation. L’article de Science a démontré que NorthPole exécutait des modèles d’IA pour la vision (comme ResNet-50 pour la classification d’images et YOLO pour la détection d’objets) de manière beaucoup plus rapide et efficace qu’un GPU NVIDIA V100 – et surpassait même le NVIDIA H100 haut de gamme en efficacité énergétique d’environ 5× spectrum.ieee.org. Un expert indépendant, le professeur Vwani Roychowdhury de l’UCLA, a qualifié ce travail de « un tour de force d’ingénierie », notant que, la technologie neuromorphique analogique n’étant pas encore prête, l’approche numérique de NorthPole « offre une option à court terme pour déployer l’IA au plus près des besoins. » spectrum.ieee.org. En d’autres termes, IBM a montré que les puces neuromorphiques peuvent commencer à avoir un impact pratique dès maintenant, en utilisant la technologie de fabrication actuelle. Ce développement a été largement relayé dans les médias technologiques et considéré comme une avancée majeure vers l’intégration des idées neuromorphiques dans des produits réels.
- IA inspirée du cerveau pour l’espace et la défense : En 2022 et 2023, des agences comme la NASA et le Département de la Défense des États-Unis ont commencé à expérimenter des processeurs neuromorphiques pour des usages spécialisés. La NASA a testé une puce neuromorphique (Loihi) pour le traitement d’images satellites et la navigation spatiale, où la tolérance aux radiations et la faible consommation d’énergie sont essentielles. L’idée est qu’un petit coprocesseur neuromorphique à bord d’un satellite pourrait analyser les données des capteurs sur place (par exemple, détecter des caractéristiques à la surface d’une planète ou des anomalies dans la télémétrie du vaisseau) sans nécessiter une communication continue avec la Terre, économisant ainsi de la bande passante et de l’énergie. Le laboratoire de recherche de l’US Air Force s’est associé à des startups (par exemple, BrainChip) pour voir si la technologie neuromorphique pouvait cartographier des signaux de capteurs complexes pour des avions autonomes ou des systèmes de détection de missiles embedded.com. L’extrême efficacité énergétique et l’apprentissage en temps réel des systèmes neuromorphiques sont très attractifs pour les systèmes militaires autonomes fonctionnant sur batterie ou à l’énergie solaire. Ces projets en sont principalement à la phase de test, mais ils témoignent d’une confiance croissante dans la fiabilité du matériel neuromorphique en dehors du laboratoire.
- Produits commerciaux Edge AI : D’ici 2025, nous voyons les premiers produits commerciaux intégrant la technologie neuromorphique. L’IP Akida de BrainChip, par exemple, a été licenciée pour une utilisation dans des modules de capteurs automobiles – un exemple est l’utilisation de réseaux neuromorphiques pour analyser les données des capteurs de pression des pneus d’une voiture afin de détecter le patinage des pneus ou les changements des conditions routières en temps réel. Un autre exemple concerne les appareils domestiques intelligents : une caméra neuromorphique capable de reconnaître des personnes et de contrôler par gestes sur l’appareil, tout en fonctionnant pendant des mois sur une seule pile. Ce ne sont pas encore des noms connus du grand public, mais ils montrent que l’informatique neuromorphique trouve sa place dans des applications de niche à forte valeur ajoutée. Les analystes prédisent qu’avec l’expansion de l’Internet des objets (IoT), le besoin d’IA miniaturisée et à faible consommation va exploser, et les puces neuromorphiques pourraient capter une part significative de ce marché si leur intégration s’avère facile. Les rapports d’études de marché prévoient une croissance rapide des revenus de l’informatique neuromorphique au cours de la prochaine décennie – de l’ordre de 25 à 30 % de taux de croissance annuel composé – créant potentiellement un marché de plusieurs milliards de dollars d’ici 2030 builtin.com.
- Collaboration et conférences mondiales : La communauté neuromorphique partage activement ses avancées. Des conférences comme le Neuromorphic Engineering workshop (Telluride) et le Neuro Inspired Computational Elements (NICE) de l’IEEE ont constaté une forte augmentation de la participation. En 2023, l’atelier de Telluride a présenté des chiens robots contrôlés par neuromorphique, des démonstrations de reconnaissance faciale fonctionnant sur des systèmes neuromorphiques monocarte, et davantage d’applications de fusion de capteurs neuromorphiques. De plus, les initiatives open source se développent – par exemple, le code et les simulateurs de l’architecture de réseau neuronal impulsionnel (SpiNNaker) sont accessibles aux chercheurs du monde entier, et le logiciel Lava d’Intel pour Loihi a été rendu open source fin 2022, invitant la communauté à contribuer aux algorithmes et cas d’usage.
- La crise énergétique de l’IA et l’espoir neuromorphique : Un thème récurrent dans l’actualité récente est le coût énergétique de l’IA. Avec les grands modèles de langage et les services d’IA consommant toujours plus d’énergie (certaines estimations situent la consommation électrique de l’industrie de l’IA à une fraction énorme et croissante de la puissance mondiale), l’informatique neuromorphique est souvent présentée comme un remède potentiel. Début 2025, un article sur Medium soulignait que l’empreinte énergétique de l’IA explose et qualifiait les puces neuromorphiques de « avenir vert et intelligent de l’IA », suggérant que 2025 pourrait être un point de bascule où l’industrie se tourne sérieusement vers les puces inspirées du cerveau pour maîtriser la consommation d’énergie medium.com. Ce récit prend de l’ampleur dans le journalisme technologique et lors des conférences sur l’IA : en somme, l’informatique neuromorphique pour une IA durable. Les gouvernements, eux aussi, à travers des initiatives pour l’informatique économe en énergie, commencent à financer la recherche neuromorphique avec le double objectif de maintenir la croissance des performances de l’IA tout en limitant les coûts énergétiques et carbone.
Tous ces développements dressent le portrait d’un domaine en rapide progression sur plusieurs fronts : compréhension scientifique, exploits d’ingénierie et premiers essais commerciaux. On a le sentiment que l’informatique neuromorphique passe d’une longue période d’incubation à une phase de démonstration pratique. Bien qu’elle ne soit pas encore « grand public », les avancées de 2023–2025 laissent penser que cela pourrait changer dans les prochaines années. Le consensus au sein de la communauté est que si les obstacles restants (notamment le logiciel et l’évolutivité) sont surmontés, la technologie neuromorphique pourrait bouleverser le secteur en permettant la prochaine vague d’IA – une IA plus adaptative, toujours active et économe en énergie que ce que nous pouvons réaliser avec les architectures actuelles.
Perspectives d’experts sur l’avenir
Pour compléter cette vue d’ensemble, il est éclairant d’entendre ce que disent les experts du domaine à propos de l’informatique neuromorphique et de son avenir. Voici quelques citations et points de vue éclairants de chercheurs et de figures de l’industrie :
- Dharmendra S. Modha (IBM Fellow, Chief Scientist for Brain-Inspired Computing) : « NorthPole fusionne les frontières entre l’informatique inspirée du cerveau et l’informatique optimisée pour le silicium, entre le calcul et la mémoire, entre le matériel et le logiciel. » spectrum.ieee.org Modha souligne que l’approche d’IBM avec NorthPole brouille les distinctions traditionnelles dans la conception des ordinateurs – créant une nouvelle classe de puce qui est à la fois processeur et mémoire, matériel et algorithme. Il défend depuis longtemps l’idée que la colocalisation de la mémoire et du calcul est la clé pour atteindre l’efficacité du cerveau. Selon lui, de véritables puces neuromorphiques nécessitent de repenser toute la pile, et le succès de NorthPole à surpasser les GPU prouve que cette approche non conventionnelle fonctionne. Modha a même suggéré que, si elles étaient mises à l’échelle, les architectures neuromorphiques pourraient éventuellement approcher les capacités du cortex humain pour certaines tâches, tout en utilisant une infime fraction de la puissance des superordinateurs actuels spectrum.ieee.org.
- Mike Davies (Directeur du Neuromorphic Computing Lab d’Intel) : « Le coût informatique des modèles d’IA actuels augmente à un rythme insoutenable… L’industrie a besoin d’approches fondamentalement nouvelles capables de passer à l’échelle. » newsroom.intel.com Davies parle souvent du mur d’efficacité énergétique auquel l’IA se heurte. Il note que simplement ajouter plus de GPU au problème n’est pas viable à long terme en raison des limites énergétiques et de l’évolutivité. L’informatique neuromorphique, selon lui, est l’un des rares chemins pour continuer à progresser. La stratégie d’Intel reflète cette conviction : en investissant dans la recherche neuromorphique comme Loihi et Hala Point, ils visent à découvrir de nouveaux algorithmes (comme l’apprentissage continu, le codage parcimonieux, etc.) qui pourraient rendre l’IA future non seulement plus rapide mais aussi beaucoup plus efficace. Davies a souligné comment les puces neuromorphiques excellent dans des tâches comme le contrôle adaptatif et la détection, et il prévoit qu’elles seront intégrées dans de plus grands systèmes d’IA – peut-être un serveur d’IA avec quelques accélérateurs neuromorphiques aux côtés de GPU, chacun traitant les charges de travail pour lesquelles il est le plus adapté. Sa citation souligne que l’évolutivité de l’IA nécessitera des changements de paradigme, et la conception neuromorphique en est un.
- Carver Mead (Pionnier de l’ingénierie neuromorphique) : (D’un point de vue historique) Mead a souvent exprimé son admiration pour l’efficacité de la biologie. Dans des interviews, il a dit des choses comme : « Quand vous avez 10¹¹ neurones qui calculent tous en parallèle, vous pouvez faire des choses avec un joule d’énergie qu’un ordinateur conventionnel prendrait des kilojoules ou plus à accomplir. » (paraphrasé de diverses interventions). La vision de Mead des années 1980 – selon laquelle mélanger la physique analogique avec l’informatique pourrait débloquer des capacités semblables au cerveau – porte enfin ses fruits. Il estime que l’ingénierie neuromorphique est « la continuation naturelle de la loi de Moore » darpa.mil en un sens : alors que la miniaturisation des transistors offre des rendements décroissants, nous devons trouver de nouvelles façons d’utiliser de grands nombres de transistors, et les utiliser pour imiter les circuits cérébraux (qui privilégient l’efficacité énergétique à la précision) est une étape logique. D’après ses commentaires récents, Mead reste optimiste quant au fait que la prochaine génération d’ingénieurs continuera à affiner ces idées et que les principes neuromorphiques imprégneront les futures plateformes informatiques (bien que Mead soit à la retraite, son héritage plane sur chaque projet neuromorphique).
- Vwani Roychowdhury (Professeur en génie électrique, UCLA) : « Étant donné que les systèmes analogiques n’ont pas encore atteint la maturité technologique, ce travail présente une option à court terme pour que l’IA soit déployée au plus près de là où elle est nécessaire. » spectrum.ieee.org Roychowdhury a donné cette évaluation concernant la puce NorthPole d’IBM. En tant qu’universitaire indépendant, non directement lié à IBM ou Intel, son point de vue a du poids : il reconnaît que, même si la grande vision pourrait être des processeurs neuromorphiques analogiques (qui pourraient, en théorie, être encore plus efficaces et proches du cerveau), le fait est que ceux-ci ne sont pas encore prêts. En attendant, des puces comme NorthPole montrent que les puces neuromorphiques numériques peuvent combler le fossé et offrir des avantages immédiats pour le déploiement de l’IA en périphérie spectrum.ieee.org. Sa citation met en avant une vision pragmatique dans la communauté : utiliser ce qui fonctionne maintenant (même s’il s’agit de neurones simulés numériquement) pour commencer à récolter les bénéfices, tout en poursuivant la recherche sur des dispositifs analogiques plus exotiques pour l’avenir. C’est une approbation du fait que la technologie neuromorphique est prête pour certaines tâches aujourd’hui.
- Chercheurs du Laboratoire National de Los Alamos : Dans un article de mars 2025, des chercheurs en IA de Los Alamos ont écrit que « l’informatique neuromorphique, la prochaine génération d’IA, sera plus petite, plus rapide et plus efficace que le cerveau humain. » en.wikipedia.org Cette affirmation audacieuse reflète l’optimisme de certains experts quant au potentiel ultime des conceptions neuromorphiques. Bien qu’être « plus petit et plus rapide » que le cerveau humain soit un objectif ambitieux (le cerveau est une machine extraordinairement puissante de 20 watts), l’idée exprimée est que l’informatique neuromorphique pourrait inaugurer des systèmes d’IA qui non seulement approchent l’intelligence humaine, mais dépassent en fait le cerveau en vitesse brute et en efficacité pour certaines opérations. Le contexte de cette citation est l’idée que les cerveaux, bien qu’incroyables, sont le produit de la biologie et ont des contraintes – des machines inspirées du cerveau pourraient potentiellement optimiser au-delà de ces contraintes (par exemple, communiquer via des signaux électriques sur des distances plus courtes que les neurones biologiques pourrait permettre une propagation du signal plus rapide, et utiliser des matériaux permettant des fréquences de déclenchement plus élevées, etc.). C’est une vision à long terme, mais il est révélateur que des chercheurs sérieux envisagent de telles possibilités.
Ces perspectives dressent ensemble le portrait d’un domaine à la fois tourné vers l’avenir et ancré dans la réalité. Les experts reconnaissent les obstacles mais sont clairement enthousiastes quant à la trajectoire. Le thème récurrent est que l’informatique neuromorphique est considérée comme une clé pour l’avenir de l’informatique – en particulier pour l’IA et l’apprentissage automatique. Il ne s’agit pas de remplacer le cerveau ou de créer des machines conscientes, mais de s’inspirer de la biologie pour dépasser les limites actuelles. Comme Modha l’a résumé avec éloquence, l’objectif est de fusionner le meilleur des deux mondes : l’adaptabilité et l’efficacité du cerveau avec les avantages de l’informatique moderne sur silicium spectrum.ieee.org.
Lectures complémentaires et ressources
Pour ceux qui souhaitent explorer plus en profondeur l’informatique neuromorphique, voici quelques sources et références crédibles :
- IBM Research – Informatique neuromorphique : L’article de présentation d’IBM « Qu’est-ce que l’informatique neuromorphique ? » offre une introduction accessible et met en avant les projets d’IBM comme TrueNorth et NorthPole ibm.comibm.com.
- Intel Neuromorphic Research Community : La newsroom et les blogs de recherche d’Intel proposent des mises à jour sur Loihi et Hala Point, y compris le communiqué de presse d’avril 2024 détaillant les spécifications et objectifs de Hala Point newsroom.intel.com.
- Programme DARPA SyNAPSE : L’annonce de 2014 de la puce IBM TrueNorth par la DARPA offre un aperçu des motivations (efficacité énergétique) et de l’architecture de la puce darpa.mil.
- IEEE Spectrum : L’article d’octobre 2023 « IBM lance une puce inspirée du cerveau pour une IA rapide et efficace » par Charles Q. Choi examine en détail la puce NorthPole et inclut des commentaires d’expertsspectrum.ieee.org.
- Nature et Nature Communications : Pour une perspective plus académique, Nature Communications (avril 2025) a publié « La route vers le succès commercial des technologies neuromorphiques » nature.com qui discute des perspectives et des défis restants. Science (oct. 2023) propose l’article technique sur NorthPole pour ceux qui souhaitent approfondir les aspects techniques.
- BuiltIn & Articles Medium : Le site technologique BuiltIn propose une introduction complète à l’informatique neuromorphique, incluant avantages et défis expliqués en termes simples builtin.com. De plus, certains auteurs sur Medium ont rédigé des articles (par exemple, sur les raisons pour lesquelles des entreprises comme IBM et Intel investissent dans le neuromorphique) pour offrir une perspective grand public medium.com.
L’informatique neuromorphique est un domaine en pleine évolution à l’intersection de l’informatique, de l’électronique et des neurosciences. Elle représente une réinvention audacieuse de la façon dont nous construisons des machines qui « pensent ». Comme nous l’avons vu, le passage du concept à la réalité a pris des décennies, mais les progrès sont indéniables et s’accélèrent. Si les tendances actuelles se poursuivent, les puces inspirées du cerveau pourraient bientôt compléter les CPU et GPU de nos appareils, rendant l’IA omniprésente et ultra-efficace. Selon les mots d’une équipe de recherche, la technologie neuromorphique est sur le point d’être « la prochaine génération de l’IA » en.wikipedia.org – une évolution qui pourrait fondamentalement changer l’informatique telle que nous la connaissons. C’est un domaine à surveiller de près dans les années à venir.
Sources :
- IBM Research, « Qu’est-ce que l’informatique neuromorphique ? » (2024)ibm.com
- DARPA News, « Le programme SyNAPSE développe une puce avancée inspirée du cerveau » (août 2014) darpa.mil
- Intel Newsroom, « Intel construit le plus grand système neuromorphique du monde (Hala Point) » (17 avril 2024) newsroom.intel.com
- IEEE Spectrum, « IBM lance une puce inspirée du cerveau pour une IA rapide et efficace » (23 octobre 2023) spectrum.ieee.org
- BuiltIn, « Qu’est-ce que l’informatique neuromorphique ? » (2023) builtin.com
- Nature Communications, « La route vers le succès commercial pour les technologies neuromorphiques » (15 avr. 2025) nature.com
- Wikipédia, « Calcul neuromorphique » (consulté en 2025) en.wikipedia.org