- Neuromorfe computing gebruikt spiking neural networks (SNNs) waarin neuronen spikes uitzenden en geheugen en verwerking in elke neuron geïntegreerd zijn, waardoor real-time, gebeurtenisgestuurde berekeningen mogelijk zijn.
- IBM’s TrueNorth (2014) bevatte 1 miljoen neuronen en 256 miljoen synapsen op één chip, met minder dan 100 milliwatt verbruik en circa 5,4 miljard transistors.
- Intel’s Loihi (2017) is een volledig digitale neuromorfe processor met 128 kernen, 130.000 neuronen en 130 miljoen synapsen, uitgerust met on-chip leren.
- IBM’s NorthPole (2023) integreert geheugen en verwerking op één chip, met circa 22 miljard transistors in een 800 mm² pakket en biedt naar verluidt 25× energie-efficiëntie en 22× snelheid ten opzichte van de beste conventionele AI-chips bij beeldherkenning.
- Intel kondigde in april 2024 Hala Point aan, een neuromorfe supercomputer met 1.152 Loihi 2-chips die ongeveer 1,15 miljard neuronen kunnen simuleren en meer dan 20 biljard bewerkingen per seconde leveren, met meer dan 15 biljoen bewerkingen per seconde per watt.
- SpiNNaker (University of Manchester) bereikte ruim 1 miljoen cores om real-time 1 miljard spikende neuronen te modelleren, terwijl BrainScaleS in Heidelberg analoge circuits gebruikt en EBRAINS onderzoekers toegang biedt.
- BrainChip’s Akida neuromorfe IP wordt commercieel toegepast, onder meer in automobielsensormodules en in slimme huishoudelijke apparaten voor edge-AI met lokaal leren.
- De markt voor neuromorfe computing wordt in 2025 gezien als groeiperiode met een CAGR van 25-30%, met verwachtingen van meerdere miljarden dollars tegen 2030.
- NASA en het Air Force Research Lab hebben neuromorfe hardware getest voor satellietbeeldverwerking en autonome defensiesystemen, wat aangeeft dat de technologie buiten labomstandigheden wordt toegepast.
- Belangrijkste obstakels blijven software-ecosystemen, gebrek aan standaarden en een transitie van Von Neumann- naar neuromorfe programmering, naast productie- en betrouwbaarheidsuitdagingen bij analoge apparaten zoals memristors.
Wat is neuromorfisch rekenen (en hoe werkt het)?
Neuromorfisch rekenen – soms ook wel hersen-geïnspireerd rekenen genoemd – is een benadering van computerontwerp die de structuur en functie van het menselijk brein nabootst ibm.com. In plaats van het traditionele model waarbij aparte eenheden de verwerking en het geheugen afhandelen, integreren neuromorfische systemen deze functies in netwerken van kunstmatige “neuronen” en “synapsen”, net als een biologisch brein. Simpel gezegd is een neuromorfische chip een computerchip die werkt als een netwerk van hersencellen, en informatie verwerkt via grote aantallen onderling verbonden neuronen en.wikipedia.org.
De kern van neuromorfisch rekenen bestaat uit spiking neural networks (SNNs) – netwerken van kunstmatige neuronen die communiceren via korte elektrische pulsen, “spikes” genoemd, analoog aan de spanningspieken in biologische neuronen ibm.com. Elke neuron verzamelt inkomende signalen in de tijd en zal pas een spike naar andere neuronen sturen wanneer een bepaalde drempel is bereikt ibm.com. Als de input onder de drempel blijft, dooft het signaal uiteindelijk uit (vaak beschreven als het “weglekken” van de lading van de neuron). Deze gebeurtenisgestuurde manier van rekenen betekent dat, in tegenstelling tot conventionele processoren die continu werken, neuromorfische chips meestal inactief blijven en alleen neuronen activeren als er gegevens te verwerken zijn pawarsaurav842.medium.com. Daardoor verbruiken ze veel minder energie – het grootste deel van het “brein-achtige” netwerk blijft inactief tot het nodig is, net zoals onze hersenen miljarden neuronen hebben, maar slechts een klein percentage op elk moment actief is pawarsaurav842.medium.com.
Een andere belangrijke eigenschap is dat verwerking en geheugen zich op dezelfde plaats bevinden. In een neuromorf ontwerp kan elke neuron zowel informatie opslaan als verwerken, terwijl in een klassieke computer data voortdurend heen en weer wordt verplaatst tussen een CPU en aparte geheugeneenheden. Door geheugen in de rekenelementen (de neuronen) in te bouwen, vermijden neuromorfe chips de knelpunten van dataverkeer die traditionele architecturen hebben spectrum.ieee.org, newsroom.intel.com. Dit levert enorme paralleliteit en efficiëntie op: veel neuronen werken gelijktijdig, en alleen lokale communicatie is nodig. Zoals IBM’s leider van neuromorf onderzoek Dharmendra Modha uitlegt, “De hersenen zijn veel energie-efficiënter dan moderne computers, deels omdat ze geheugen met verwerking combineren in elke neuron.” spectrum.ieee.org. In feite werken neuromorfe systemen meer als levende neurale netwerken dan als conventionele seriële computers, waardoor real-time informatieverwerking en spaarzame, gebeurtenisgestuurde communicatie tussen neuronen mogelijk wordt nature.com.
Een korte geschiedenis en belangrijke mijlpalen
Neuromorf rekenen klinkt misschien futuristisch, maar de conceptuele oorsprong gaat terug tot de jaren 1980. De term “neuromorf” (betekent “hersenvormig”) werd bedacht door Carver Mead, een Caltech-professor die dit vakgebied eind jaren 1980 pionierde colocationamerica.com. In die tijd bouwden Mead en zijn collega’s zoals Misha Mahowald de eerste experimentele “siliciumneuronen” en sensorische chips – bijvoorbeeld een analoge silicium retina die licht kon detecteren zoals een menselijk oog, en een silicium cochlea die geluid verwerkte ibm.com. Deze vroege chips toonden aan dat elektronische schakelingen basale neurale functies konden nabootsen, en wekten de visie dat computers op een dag meer als hersenen zouden kunnen werken.
In de jaren 1990 en 2000 bleef neuromorfe engineering grotendeels binnen de academische wereld en onderzoekslaboratoria, waar het zich gestaag op de achtergrond ontwikkelde. Een belangrijke mijlpaal kwam in 2014 met IBM’s TrueNorth-chip, ontwikkeld onder DARPA’s SyNAPSE-programma. TrueNorth bevatte 1 miljoen “neuronen” en 256 miljoen “synapsen” op één enkele chip, met een verbluffende 5,4 miljard transistors – en dat alles terwijl het minder dan 100 milliwatt aan stroom verbruikte darpa.mil. Deze “hersenen op een chip”, geïnspireerd op de architectuur van zoogdierhersenen, konden complexe patroonherkenningstaken uitvoeren met twee ordes van grootte minder energie dan conventionele processoren darpa.mil. Het ontwerp van TrueNorth was gebeurtenisgestuurd en massaal parallel: 4.096 neurosynaptische kernen communiceerden via spikes, waarmee de haalbaarheid van grootschalige neuromorfe hardware werd aangetoond. IBM vergeleek de schaal van TrueNorth (één miljoen neuronen) met ongeveer het brein van een bij of kakkerlak, en het bewees dat neuromorfe chips zowel energiezuinig als in staat tot hersenachtige taken konden zijn darpa.mil.
Een volgende sprong kwam in 2017 toen Intel zijn Loihi neuromorfe chip introduceerde. Loihi was een volledig digitale neuromorfe processor met 128 kernen met 130.000 neuronen en 130 miljoen synapsen geïmplementeerd in silicium pawarsaurav842.medium.com. Belangrijk is dat Loihi was uitgerust met on-chip leren: elke neuronkern had een ingebouwde leermotor, waardoor de chip synaptische gewichten kon aanpassen en in de loop van de tijd van patronen kon “leren”. In een demonstratie liet Intel zien dat Loihi kon leren de geuren van gevaarlijke chemicaliën te herkennen – in wezen een chip leren ruiken door olfactorische sensorgegevens op een hersenachtige manier te verwerken pawarsaurav842.medium.com. Dit zelflerende vermogen benadrukte hoe neuromorfe systemen zich in realtime kunnen aanpassen, een stap verder dan het uitvoeren van voorgetrainde neurale netwerken.
Sindsdien is de vooruitgang versneld. Universiteiten bouwden gespecialiseerde neuromorfe supercomputers zoals SpiNNaker (University of Manchester), een machine met meer dan een miljoen kleine processoren die zijn ontworpen om een miljard spikende neuronen in real time te simuleren pawarsaurav842.medium.com. In Europa ondersteunde het tien jaar durende Human Brain Project (2013–2023) neuromorfe platforms zoals BrainScaleS (Heidelberg University), dat analoge elektronische circuits gebruikt om neuronen na te bootsen, en een versie van SpiNNaker – beide toegankelijk voor onderzoekers via de EBRAINS onderzoeksinfrastructuur ibm.com. Deze grootschalige academische projecten waren mijlpalen in het aantonen hoe neuromorfe principes opgeschaald kunnen worden.Aan de industriële kant blijven IBM, Intel en anderen de grenzen verleggen. IBM’s nieuwste neuromorfe ontwikkeling, onthuld in 2023, heeft de codenaam NorthPole – een chip die geheugen en verwerking nog nauwer samenbrengt. NorthPole behaalt dramatische verbeteringen in snelheid en efficiëntie, naar verluidt 25× energie-efficiënter en 22× sneller dan de beste conventionele AI-chips bij beeldherkenningstaken spectrum.ieee.org. Het bevat 22 miljard transistors in een 800 mm² pakket, en door extern geheugen volledig te elimineren, wordt het energieverbruik voor dataverplaatsing drastisch verminderd spectrum.ieee.org. IBM-onderzoekers beschrijven NorthPole als “een doorbraak in chiparchitectuur die enorme verbeteringen in energie-, ruimte- en tijdsefficiëntie oplevert” research.ibm.com, voortbouwend op lessen van TrueNorth een decennium eerder. Tegelijkertijd onthulde Intel in 2021 een tweede-generatie chip, Loihi 2, en in 2024 kondigde het Hala Point aan, een neuromorf super-systeem met 1.152 Loihi 2-chips met samen 1,2 miljard neuronen – ongeveer het breinvermogen van een kleine vogel (een uil) newsroom.intel.com. Geïnstalleerd bij Sandia National Labs is Hala Point momenteel ’s werelds grootste neuromorfe computer, bedoeld om AI-onderzoek op hersenschaal te verkennen.
Van Carver Mead’s één-transistor neuronen tot de miljard-neuron systemen van vandaag, is neuromorfe computing geëvolueerd van een niche academisch idee tot een baanbrekende technologie. De geschiedenis wordt gekenmerkt door gestage verbeteringen in schaal, energie-efficiëntie en realisme van hersenachtige verwerking, waarmee het toneel wordt gezet voor het volgende computertijdperk.
Belangrijkste technologieën in neuromorfe computing
Neuromorfe computing brengt innovaties samen in hardware-apparaten en neurale netwerkmodellen. Enkele van de belangrijkste technologieën die deze door het brein geïnspireerde benadering mogelijk maken, zijn onder andere:
- Spiking Neural Networks (SNNs): Zoals vermeld, vormen SNNs de algoritmische ruggengraat van neuromorfe systemen. Ze worden soms de “derde generatie” van neurale netwerken pawarsaurav842.medium.com genoemd, waarbij het element tijd wordt opgenomen in neuronmodellen. In tegenstelling tot de constante, continue activaties in standaard kunstmatige neurale netwerken, communiceren spikende neuronen met discrete spikes, wat temporele codering mogelijk maakt (informatie wordt overgebracht door de timing van spikes) en gebeurtenisgestuurde werking. SNNs kunnen verschijnselen zoals neuronale timing, refractaire periodes en plasticiteit (leren via veranderingen in synapssterkte) natuurlijker modelleren dan traditionele netwerken ibm.com. Dit maakt ze bijzonder geschikt voor het verwerken van sensorische datastromen (visie, audio, enz.) in real time. Het ontwikkelen van trainingsalgoritmen voor SNNs is echter een complexe taak – onderzoekers gebruiken methoden die variëren van het mappen van getrainde diepe netwerken op spikende equivalenten tot bio-geïnspireerde leermethoden ibm.com. SNNs zijn een levendig onderzoeksgebied en een cruciaal onderdeel van de neuromorfe puzzel.
- Memristors en nieuwe apparaten: Veel neuromorfe platforms gebruiken nog steeds conventionele siliciumtransistoren, maar er is veel interesse in nieuwe apparaten zoals memristors (geheugenweerstanden). Een memristor is een nanoschaal elektronisch element dat tegelijkertijd gegevens kan opslaan (zoals geheugen) en berekeningen kan uitvoeren (zoals een weerstand/netwerk) door zijn weerstand te veranderen op basis van de stroom – het bootst in wezen het vermogen van een synaps na om te “onthouden” door verbindingen te versterken of te verzwakken ibm.com. Memristors en andere resistieve geheugentechnologieën (zoals phase-change memory, ferro-elektrische apparaten, spintronische apparaten) kunnen “analoge” synapsen implementeren die continu worden bijgewerkt, waardoor in-memory computing-architecturen mogelijk worden. Door geheugen te integreren in dezelfde fysieke apparaten die de berekeningen uitvoeren, breken ze verder met de scheiding die inherent is aan het traditionele computerparadigma. Deze opkomende componenten beloven efficiëntiewinsten van enkele ordes van grootte; ze zijn echter in 2025 nog experimenteel en kennen uitdagingen op het gebied van betrouwbaarheid en fabricage. Zoals een expert opmerkte, bieden analoge neuromorfe systemen enorme mogelijkheden maar “hebben ze nog niet de technologische volwassenheid bereikt”, wat de reden is dat veel huidige ontwerpen (zoals IBM’s NorthPole en Intel’s Loihi) vasthouden aan digitale circuits als een oplossing voor de korte termijn spectrum.ieee.org.
- Asynchrone schakelingen en event-gedreven hardware: Neuromorfe chips maken vaak gebruik van asynchrone logica, wat betekent dat ze geen enkele globale klok hebben die elke bewerking in de pas laat lopen. In plaats daarvan is de verwerking gedistribueerd en event-getriggerd. Wanneer een neuron vuurt, activeert het de volgende neuronen; als er geen activiteit is, gaan delen van het circuit in slaapstand. Deze hardwarebenadering, soms “klokloos” of event-based design genoemd, ondersteunt direct de spaarzame, spike-gedreven werklasten van SNN’s. Het is een afwijking van het synchrone ontwerp van de meeste CPU’s/GPU’s. Als voorbeeld: IBM’s TrueNorth werkte volledig asynchroon, en de neuronen communiceerden via pakketten in een network-on-chip wanneer er events plaatsvonden darpa.mil. Dit bespaart niet alleen energie, maar sluit ook aan bij hoe biologische neurale netwerken parallel werken zonder een centrale klok.
- Compute-in-Memory Architectuur: Een term die vaak wordt geassocieerd met neuromorfe chips is compute-in-memory, waarbij geheugenelementen (of het nu SRAM, niet-vluchtig geheugen of memristors zijn) samen met rekenunits worden geplaatst. Hierdoor minimaliseren neuromorfe ontwerpen databeweging – een van de grootste bronnen van energieverbruik in computing newsroom.intel.com. In de praktijk kan dit betekenen dat elke neuronkern op een chip zijn eigen lokale geheugen heeft waarin zijn toestand en synaptische gewichten worden opgeslagen, waardoor constante trips naar off-chip DRAM worden geëlimineerd. IBM’s NorthPole-chip is hier een voorbeeld van: hij elimineert off-chip geheugen volledig, plaatst alle gewichten op de chip en laat de chip voor een systeem verschijnen als een “actief geheugen”-apparaat spectrum.ieee.org. Compute-in-memory kan digitaal worden bereikt (zoals NorthPole doet) of met analoge middelen (door gebruik te maken van memristor crossbar arrays om matrixbewerkingen ter plekke uit te voeren). Dit concept is essentieel om hersenachtige efficiëntie te bereiken.
Samengevat put neuromorfisch rekenen uit neurowetenschap (spikende neuronen, plastische synapsen), nieuwe hardware (memristors, phase-change memory), en niet-traditioneel circuitontwerp (event-gedreven, geheugen-reken integratie) om computersystemen te creëren die werken volgens totaal andere principes dan de energieverslindende chips van vandaag.
Neuromorfisch versus traditioneel computerparadigma
Om neuromorphic computing te waarderen, helpt het om het te contrasteren met de traditionele Von Neumann-architectuur die sinds het midden van de 20e eeuw domineert. In een klassieke computer (of het nu een pc of een smartphone is), is het ontwerp fundamenteel serieel en gescheiden: een centrale processor haalt instructies en data uit het geheugen, voert ze uit (één voor één, heel snel), en schrijft de resultaten terug naar het geheugen. Zelfs als moderne CPU’s en GPU’s parallelle kernen of pipelines gebruiken, lijden ze nog steeds onder de zogenaamde Von Neumann-bottleneck – de noodzaak om voortdurend data van en naar het geheugen te verplaatsen, wat tijd en energie kost colocationamerica.com, spectrum.ieee.org. Stel je een chef voor die voor elk ingrediënt naar de voorraadkast moet rennen voordat hij gaat snijden en mengen; dat is vergelijkbaar met hoe standaardcomputers werken.
Neuromorfe computers daarentegen werken meer als een uitgestrekt netwerk van mini-processors (neuronen) die allemaal parallel werken, elk met hun eigen lokaal geheugen. Er is geen centrale klok of programmateller die instructies serieel doorloopt. In plaats daarvan vindt de berekening collectief en asynchroon plaats: duizenden of miljoenen neuronen voeren eenvoudige bewerkingen tegelijkertijd uit en communiceren resultaten via spikes. Dit is vergelijkbaar met hoe het menselijk brein taken afhandelt – miljarden neuronen die parallel vuren, zonder dat er één enkele CPU de leiding heeft. Het resultaat is een systeem dat massaal parallel en gebeurtenisgestuurd kan zijn, dat veel signalen tegelijk verwerkt en van nature wacht als er niets te doen is.
De voordelen omvatten snelheid door parallelisme en veel grotere energie-efficiëntie. Een traditionele processor kan 100 watt gebruiken om een groot AI-model te draaien, grotendeels door het schakelen van miljarden transistors en het verplaatsen van data in en uit geheugen-caches. Daarentegen gebruiken neuromorfe chips gebeurtenissen en spaarzaam vuren: als slechts 5% van de neuronen actief is op een bepaald moment, verbruiken de andere 95% vrijwel geen stroom. Deze spaarzame activiteit is een van de redenen waarom neuromorfe architecturen tot 1000× betere energie-efficiëntie hebben aangetoond bij bepaalde AI-taken vergeleken met CPU’s/GPU’s medium.com. Sterker nog, het menselijk brein, waar onze neuromorfe ontwerpen naar streven, werkt op slechts ongeveer 20 watt vermogen (minder dan een zwakke gloeilamp) en presteert toch beter dan huidige supercomputers op gebieden als visie en patroonherkenning medium.com. Zoals Intel’s neuromorfisch labdirecteur Mike Davies het verwoordde: “De rekenkosten van de AI-modellen van vandaag stijgen in een onhoudbaar tempo. De industrie heeft fundamenteel nieuwe benaderingen nodig die kunnen opschalen.” newsroom.intel.com Neuromorfe computing biedt zo’n nieuwe benadering door geheugen te integreren met verwerking en gebruik te maken van sterk parallelle, breinachtige architecturen om databeweging en energieverbruik te minimaliseren newsroom.intel.com.Het is echter belangrijk op te merken dat neuromorfe computing geen kant-en-klare vervanging is voor alle vormen van computing. Traditionele deterministische processoren blinken uit in precieze, lineaire taken (zoals rekenwerk, database-queries, enz.), terwijl neuromorfe systemen uitblinken in sensorische, perceptuele en patroonherkenningstaken waar breinachtige verwerking uitmunt. In veel toekomstvisies zullen neuromorfe chips klassieke CPU’s en GPU’s aanvullen – als gespecialiseerde co-processoren voor AI-werkbelastingen die perceptie, leren of aanpassing vereisen, net zoals GPU’s vandaag grafische en neurale netwerkberekeningen versnellen. De twee paradigma’s kunnen naast elkaar bestaan, waarbij neuromorfe hardware de “breinachtige” taken op een fundamenteel efficiëntere manier afhandelt. In wezen zijn Von Neumann-machines als sequentiële rekenaars, terwijl neuromorfe machines parallelle patroonherkenners zijn – elk heeft zijn eigen plek.
Belangrijkste spelers en projecten die neuromorfe technologie aandrijven
Neuromorfe computing is een multidisciplinaire inspanning die technologiebedrijven, onderzoeksinstituten en de academische wereld omvat. Grote bedrijven, startups en overheidsinstanties hebben zich allemaal op het terrein begeven om brein-geïnspireerde hardware en software te ontwikkelen. Hier zijn enkele van de belangrijkste spelers en projecten in 2025:
- IBM: IBM is een pionier geweest met zijn onderzoek naar cognitieve computing. Naast de baanbrekende TrueNorth-chip (2014) met 1 miljoen neuronen, heeft IBM’s onderzoeksteam onder leiding van Dharmendra Modha onlangs NorthPole (2023) gepresenteerd, een next-generation neuromorfe inference chip. De doorbraak van NorthPole zit in het nauw verweven van rekenkracht en geheugen op de chip, wat ongekende efficiëntie oplevert voor AI-inferentietaken spectrum.ieee.org. IBM meldt dat NorthPole zelfs de meest geavanceerde GPU’s kan overtreffen op benchmarks zoals beeldherkenning, terwijl het slechts een fractie van het stroomverbruik gebruikt spectrum.ieee.org. IBM’s langetermijnvisie is om dergelijke chips te gebruiken om AI-systemen aan te drijven die veel energiezuiniger zijn, waardoor AI mogelijk kan draaien op alles van datacenters tot edge-apparaten zonder de energiebeperkingen van vandaag.
- Intel: Intel heeft een speciaal Neuromorphic Computing Lab opgericht en de Loihi-chipfamilie geïntroduceerd. De eerste Loihi (2017) en Loihi 2 (2021) zijn research chips die beschikbaar zijn gesteld aan universiteiten en bedrijven via Intel’s Neuromorphic Research Community. Intel’s benadering is volledig digitaal, maar met asynchrone spiking-cores en on-chip learning. In april 2024 kondigde Intel Hala Point aan, in wezen een neuromorfe supercomputer met meer dan duizend Loihi 2-chips die met elkaar verbonden zijn newsroom.intel.com. Hala Point, geïnstalleerd bij Sandia Labs, kan meer dan 1 miljard neuronen simuleren en wordt gebruikt om grootschalige, door het brein geïnspireerde algoritmen en continu lerende AI-systemen te verkennen newsroom.intel.com. Intel ziet neuromorfe technologie als de sleutel tot meer duurzame AI, met als doel het stroomverbruik voor AI-modeltraining en -inference drastisch te verlagen newsroom.intel.com. Zoals Mike Davies opmerkte bij de lancering: het opschalen van de huidige AI met bestaande hardware is qua stroomverbruik niet haalbaar, dus zet Intel in op neuromorfe ontwerpen om door die efficiëntiemuur heen te breken newsroom.intel.com.
- Qualcomm: Qualcomm heeft neuromorfe principes onderzocht voor energiezuinige AI op apparaten. Al vroeg (rond 2013-2015) ontwikkelde het een platform genaamd “Zeroth” en demonstreerde het spiking neural network-accelerators voor taken zoals patroonherkenning op smartphones. In de afgelopen jaren zijn Qualcomm’s neuromorfe inspanningen minder openbaar, maar rapporten suggereren dat ze doorgaan met R&D, vooral omdat neuromorfe computing aansluit bij ultra-energiezuinige edge-AI (een logische match voor Qualcomm’s mobiele en embedded chipbusiness) medium.com. Qualcomm’s interesse onderstreept dat zelfs mobiele chipfabrikanten potentie zien in door het brein geïnspireerde ontwerpen om te voldoen aan de AI-eisen zonder de batterij van het apparaat leeg te trekken.
- BrainChip Holdings: BrainChip, een Australische startup, is een van de eersten die neuromorfe IP commercialiseert. Hun Akida neuromorfe processor is een volledig digitaal, event-based ontwerp dat gebruikt kan worden als AI-accelerator in edge-apparaten brainchip.com. BrainChip legt de nadruk op real-time leren en inferentie met een klein energieverbruik – bijvoorbeeld door lokale gebaren- of anomaliedetectie toe te voegen aan IoT-sensoren of voertuigen zonder cloudverbinding. Vanaf 2025 werkt BrainChip samen met partners om Akida te integreren in producten variërend van slimme sensoren tot lucht- en ruimtevaartsystemen, en heeft zelfs neuromorfe verwerking voor ruimtevaarttoepassingen gedemonstreerd (in samenwerking met organisaties als NASA en het Air Force Research Lab) embedded.com, design-reuse.com. Startups zoals BrainChip illustreren de groeiende commerciële interesse om neuromorfe technologie naar de markt te brengen voor edge AI en IoT.
- Academische en overheidslaboratoria: Op academisch gebied hebben verschillende universiteiten en coalities aanzienlijke neuromorfe systemen gebouwd. We noemden SpiNNaker (University of Manchester, VK), dat in 2018 een hardware-neuraal netwerk met een miljoen cores bereikte, met als doel om 1% van de neuronen van het menselijk brein in realtime te modelleren pawarsaurav842.medium.com. Er is ook BrainScaleS (Heidelberg Univ., Duitsland), dat analoge circuits op grote siliciumwafels gebruikt om neurale netwerken versneld te emuleren (effectief het “vooruitspoelen” van neurale processen om leren te bestuderen). In de VS hebben onderzoeksinstellingen zoals Stanford (dat het Neurogrid-systeem creëerde dat in staat is tot een simulatie van een miljoen neuronen ibm.com) en MIT, onder andere, actieve neuromorfe engineeringlabs. Overheidsinstanties zoals DARPA blijven programma’s financieren (bijv. het lopende “Electronic Photonic Neural Networks”-programma dat fotonische neuromorfe chips onderzoekt). Ondertussen heeft het EU Human Brain Project (HBP) zwaar geïnvesteerd in neuromorfe infrastructuren via het Neuromorphic Computing Platform, en de opvolgende initiatieven onder de EBRAINS-onderzoeksinfrastructuur blijven neuromorfe hardware toegankelijk maken voor wetenschappers ibm.com.
- Andere spelers in de industrie: Naast IBM en Intel zijn bedrijven als Samsung en HRL Laboratories actief op het gebied van neuromorfe technologie. In 2021 kondigden Samsung-onderzoekers een visie aan om de neuronale verbindingen van het brein te “kopiëren en plakken” op geheugenchips, waarbij 3D-geheugenarrays worden gebruikt om de connectiviteit van een biologisch brein in kaart te brengen als een neuromorf systeem – een ambitieus doel dat nog ver van praktische implementatie is. HRL Labs (mede-eigendom van Boeing en GM) ontwikkelde een neuromorfe chip met memristoren die in 2019 one-shot learning demonstreerde (het apparaat kon een patroon herkennen na één voorbeeld). Ook Europese startups zoals GrAI Matter Labs (met zijn GrAI “NeuronFlow”-chips ibm.com) en SynSense (een bedrijf uit Zürich/China, bekend om ultra-zuinige vision-chips) zijn opmerkelijke bijdragers.
Samengevat is het neuromorfe veld een samenwerkingsmix van technologiegiganten die de grenzen verleggen, startups die innovatie brengen naar gespecialiseerde markten, en academische consortia die nieuwe grenzen verkennen. Dit brede ecosysteem versnelt de vooruitgang en brengt neuromorfe ideeën uit het lab naar toepassingen in de echte wereld.
Huidige toepassingen en praktijkvoorbeelden
Neuromorfe computing is nog steeds een opkomende technologie, dus de toepassingen in de echte wereld staan nog in de kinderschoenen – maar er zijn veelbelovende demonstraties geweest in verschillende vakgebieden. Denk aan taken die onze hersenen opmerkelijk goed (en efficiënt) uitvoeren, maar waar conventionele computers moeite mee hebben; daar blinken neuromorfe systemen uit. Hier zijn enkele opmerkelijke gebruikstoepassingen en potentiële toepassingen:
- Autonome voertuigen: Zelfrijdende auto’s en drones moeten in realtime reageren op dynamische omgevingen. Neuromorfe chips, met hun snelle parallelle verwerking en lage energieverbruik, kunnen voertuigen helpen om de omgeving waar te nemen en beslissingen te nemen op een manier die meer lijkt op die van een menselijke bestuurder. Zo kan een neuromorfe processor camerabeelden en sensorgegevens verwerken en obstakels detecteren of navigatiebeslissingen nemen met zeer lage vertraging. IBM-onderzoekers merken op dat neuromorfe computing snellere koerscorrecties en botsingsvermijding in autonome voertuigen mogelijk kan maken, terwijl het energieverbruik drastisch wordt verlaagd (belangrijk voor elektrische voertuigen en drones) ibm.com. In de praktijk zou een spiking neural network continu de omgeving van een auto kunnen analyseren, maar alleen neuronen activeren wanneer er een relevant evenement plaatsvindt (zoals een voetganger die de weg op stapt), waardoor snelle reflexen mogelijk zijn zonder energie te verspillen aan nutteloze berekeningen.
- Cybersecurity en anomaliedetectie: Cybersecuritysystemen moeten ongewone patronen (mogelijke inbraken of fraude) kunnen herkennen binnen enorme datastromen. Neuromorfe architecturen zijn van nature goed in patroonherkenning en kunnen worden gebruikt om afwijkingen in realtime te signaleren. Omdat ze gebeurtenisgestuurd zijn, kunnen ze netwerkverkeer of sensorgegevens monitoren en alleen reageren wanneer er echt een abnormaal patroon ontstaat. Dit maakt dreigingsdetectie in realtime met lage vertraging mogelijk, en het is energiezuinig genoeg dat zo’n systeem mogelijk continu op bescheiden hardware kan draaien ibm.com. In sommige experimenten zijn neuromorfe chips gebruikt om netwerk-inbraken of creditcardfraude te detecteren door de “normale” patronen te leren en vervolgens afwijkingen te signaleren zonder elk datapunt door een energieverslindende CPU te halen.
- Edge AI en IoT-apparaten: Een van de meest directe toepassingen van neuromorphic computing is in edge-apparaten – zoals slimme sensoren, wearables of huishoudelijke apparaten – waar stroom- en rekenbronnen beperkt zijn. De ultra-laag energieverbruik van neuromorfe chips betekent dat ze AI-mogelijkheden (zoals spraakherkenning, gebarenherkenning of gebeurtenisdetectie) naar apparaten kunnen brengen zonder dat er cloudservers of frequente batterij-opladingen nodig zijn ibm.com. Zo zou een drone uitgerust met een neuromorfisch visionsensor zelfstandig kunnen navigeren en obstakels vermijden, en reageren zo snel en efficiënt als een vleermuis die echolocatie gebruikt. Drones met neuromorfe visionsystemen hebben aangetoond dat ze in staat zijn om door complex terrein te bewegen en te reageren op veranderingen door alleen de rekenkracht te verhogen wanneer er nieuwe sensorinput is, vergelijkbaar met hoe het brein van een dier werkt builtin.com. Evenzo zou een smartwatch of gezondheidsmonitor met een kleine neuromorfe chip continu biosignalen (hartslag, EEG, enz.) lokaal kunnen analyseren, afwijkingen zoals hartritmestoornissen of aanvallen in realtime kunnen detecteren, en dit dagenlang kunnen doen op één batterijlading – iets wat met conventionele chips uiterst moeilijk is. (Sterker nog, een recent anekdote beschreef hoe een neuromorfisch aangedreven smartwatch ter plekke een hartritmestoornis bij een patiënt opmerkte, wat met cloud-gebaseerde analyse lastig zou zijn geweest medium.com.)
- Patroonherkenning en cognitieve computing: Neuromorfe systemen zijn van nature goed in taken die patronen in ruisachtige data herkennen – of het nu om beelden, geluiden of sensorsignalen gaat. Ze zijn toegepast in experimentele opstellingen voor beeldherkenning, spraak- en auditieve verwerking, en zelfs geurherkenning (zoals met Intel’s Loihi-chip die verschillende geuren leert) pawarsaurav842.medium.com. Neuromorfe chips kunnen ook interfacen met analoge sensoren (zoals dynamische visionsensoren die spikes uitsturen bij veranderingen in een scène) om end-to-end neuromorfe detectiesystemen te creëren. In de geneeskunde zouden neuromorfe processors stromen van biomedische signalen (bijvoorbeeld EEG-hersengolven) kunnen analyseren en belangrijke gebeurtenissen of patronen voor diagnose kunnen herkennen ibm.com. Hun vermogen om te leren en zich aan te passen betekent ook dat ze patroonherkenning op het apparaat kunnen personaliseren – bijvoorbeeld, een neuromorfisch gehoorapparaat zou zich continu kunnen aanpassen aan de omgeving van de specifieke gebruiker en verbeteren hoe het ruis van spraak filtert.
- Robotica en real-time besturing: Robotica vereist vaak strakke feedbackloops voor het aansturen van motoren, het interpreteren van sensoren en het nemen van beslissingen onderweg. Neuromorfe controllers kunnen robots een vorm van reflexen en aanpassingsvermogen geven. Omdat ze informatie parallel verwerken en kunnen leren van sensorische feedback, zijn ze zeer geschikt voor taken zoals balanceren, grijpen of lopen op onvoorspelbaar terrein. Onderzoekers hebben neuromorfe chips gebruikt om robotarmen en -benen aan te sturen, waarbij de controller kan leren om motorsignalen aan te passen op basis van sensorinvoer in real time, vergelijkbaar met hoe een mens motorische vaardigheden leert. Een waargenomen voordeel is dat robots die worden aangedreven door spiking neural nets kunnen blijven functioneren, zelfs als sommige neuronen uitvallen (een soort gracieuze degradatie), wat fouttolerantie geeft die lijkt op biologische systemen colocationamerica.com. Bedrijven zoals Boston Dynamics hebben aangegeven neuromorf-geïnspireerde systemen te verkennen om de efficiëntie en reactietijden van robots te verbeteren. In de productie zou een neuromorf visionsysteem een robot in staat kunnen stellen om objecten te herkennen of zich natuurlijker over een drukke fabrieksvloer te bewegen en sneller te reageren op plotselinge veranderingen builtin.com.
- Brain-machine interfaces en neurowetenschap: Omdat neuromorfe chips werken volgens principes die zo dicht bij biologische hersenen liggen, worden ze gebruikt als hulpmiddelen om neurowetenschap te begrijpen en zelfs te koppelen aan levende neuronen. Zo kunnen wetenschappers levende neurale culturen verbinden met neuromorfe hardware om hybride systemen te creëren, waarbij de chip de biologische neuronen kan stimuleren of monitoren op manieren die gewone computers niet gemakkelijk in real time kunnen doen. Daarnaast helpen neuromorfe modellen neurowetenschappers om hypothesen te testen over hoe bepaalde neurale circuits in de hersenen zouden kunnen functioneren, door die circuits in silico te repliceren en te kijken of ze zich vergelijkbaar gedragen. Hoewel dit meer onderzoeksapplicaties zijn dan commerciële, onderstrepen ze de veelzijdigheid van de technologie.
Het is het vermelden waard dat veel van deze toepassingen zich nog in prototype- of onderzoeksfase bevinden. Neuromorfe computing in 2025 staat ongeveer waar conventionele AI misschien stond in het begin van de jaren 2010 – we zien veelbelovende demo’s en nichetoepassingen, maar de technologie begint net uit het lab te komen. Tech-consultancies zoals Gartner en PwC hebben neuromorfe computing genoemd als een opkomende technologie om de komende jaren in de gaten te houden ibm.com. De verwachting is dat naarmate de hardware en software volwassen worden, we neuromorfe processoren alledaagse apparaten zullen zien voorzien van perceptuele intelligentie zonder dat daar enorme rekenkracht voor nodig is. Van zelfrijdende auto’s tot piepkleine medische implantaten, elk scenario waarin we real-time AI in een energie- of ruimtebeperkte omgeving nodig hebben, zou een kandidaat kunnen zijn voor neuromorfe oplossingen.
Uitdagingen en beperkingen
Ondanks het spannende potentieel, staat neuromorphic computing voor significante uitdagingen op weg naar bredere adoptie. Veel van deze uitdagingen komen voort uit het feit dat neuromorphic benaderingen radicaal anders zijn dan de status quo, wat nieuw denken vereist op het gebied van hardware, software en zelfs onderwijs. Hier zijn enkele van de belangrijkste obstakels en beperkingen in 2025:
- Volwassenheid van de technologie: Neuromorphic computing is nog geen volwassen, gangbare technologie. Volgens de hypecyclus van Gartner bevindt het zich in de vroege stadia – veelbelovend, maar nog niet klaar voor grootschalige toepassing ibm.com. De huidige neuromorphic chips zijn meestal onderzoeksprototypes of apparaten in beperkte productie. Er zijn nog geen algemeen geaccepteerde industriestandaarden voor neuromorphic hardwareontwerp of prestatiebenchmarks builtin.com. Dit maakt het moeilijk voor potentiële gebruikers om systemen te evalueren en te vergelijken. Als gevolg daarvan verkennen organisaties neuromorphic technologie voorzichtig, in de wetenschap dat het nog in ontwikkeling is en mogelijk niet direct conventionele oplossingen voor alle problemen overtreft.
- Gebrek aan software en tools: Een van de grootste knelpunten is het software-ecosysteem. De wereld van computing is al decennialang gebouwd rond Von Neumann-machines – programmeertalen, compilers, besturingssystemen en ontwikkelaarsexpertise gaan allemaal uit van een traditionele architectuur. Neuromorphic hardware daarentegen vereist een andere benadering van programmeren (meer gericht op het ontwerpen van neurale netwerken en het afstemmen van modellen dan op het schrijven van sequentiële code). Op dit moment “bestaan de juiste softwarebouwtools eigenlijk niet” voor neuromorphic systemen, zoals een onderzoeker het verwoordde builtin.com. Veel neuromorphic experimenten zijn afhankelijk van aangepaste software of aanpassingen van neurale netwerkframeworks. Er zijn initiatieven gaande (bijvoorbeeld Intel’s Lava open-source framework voor Loihi, of universitaire projecten zoals Nengo), maar er is nog geen uniform, gebruiksvriendelijk platform vergelijkbaar met TensorFlow of PyTorch voor spiking neural networks op schaal. Deze steile leercurve beperkt de adoptie – een doorsnee AI-ontwikkelaar kan niet zomaar een neuromorphic chip oppakken en een applicatie uitrollen zonder uitgebreide bijscholing. Het verbeteren van de softwarestack, bibliotheken en simulatoren is een cruciale taak voor de gemeenschap.
- Verschuiving in programmeerparadigma: Gerelateerd aan het probleem met tools is een fundamentele verschuiving in denkwijze. Het programmeren van een neuromorfisch systeem is niet zoals het schrijven van een Python-script; het lijkt meer op het ontwerpen en trainen van een hersenachtig model. Ontwikkelaars moeten vertrouwd zijn met neurowetenschappelijke concepten (spike rates, synaptische plasticiteit) naast informatica. Dit betekent dat er een hoge instapdrempel is. Er wordt geschat dat wereldwijd slechts een paar honderd mensen echte experts zijn in neuromorfe computing vandaag de dag builtin.com. Het overbruggen van deze talentkloof is een uitdaging – we moeten ofwel meer mensen opleiden in dit interdisciplinaire veld, of hogere-orde tools creëren die de complexiteit abstraheren. Tot die tijd zal neuromorfe computing enigszins exclusief blijven, voornamelijk toegankelijk voor gespecialiseerde onderzoeksgroepen.
- Hardware schaalbaarheid en productie: Het bouwen van neuromorfe hardware die betrouwbaar de complexiteit van het brein nabootst is uiterst uitdagend. Hoewel digitale chips zoals Loihi en TrueNorth hebben aangetoond dat we kunnen opschalen naar een miljoen neuronen of meer, is het bereiken van hersenschaal (86 miljard neuronen in een menselijk brein) nog steeds ver buiten bereik. Belangrijker nog, analoge benaderingen (met memristoren, enz.) die mogelijk het beste synapsen kunnen nabootsen, zijn nog niet klaar voor productie – er zijn nieuwe materialen en fabricageprocessen nodig om ze stabiel en reproduceerbaar te maken spectrum.ieee.org. De meest geavanceerde analoge apparaten hebben vaak te maken met problemen zoals apparaatvariabiliteit, drift of beperkte levensduur. Digitale neuromorfe chips daarentegen maken gebruik van standaard CMOS-productie, maar kunnen wat efficiëntie of dichtheid opofferen in vergelijking met analoog. Er is ook de uitdaging om neuromorfe chips te integreren in bestaande computersystemen (communicatie-interfaces, form factors, enz.). IBM’s NorthPole-chip probeert dit aan te pakken door te functioneren als een “actief geheugen” voor een hostsysteem spectrum.ieee.org, maar dergelijke integratieoplossingen zijn nog experimenteel. Kortom, neuromorfe hardware staat op het punt van doorbreken – veelbelovend, maar er is meer R&D nodig om het robuust, schaalbaar en kosteneffectief te maken voor massaproductie.
- Standaardisatie en benchmarks: In conventionele computing hebben we goed gedefinieerde benchmarks (SPEC voor CPU’s, MLPerf voor AI-versnellers, enz.) en prestatiestatistieken. Voor neuromorfe systemen is het nog niet duidelijk hoe je de prestaties eerlijk kunt meten en vergelijken. Als de ene chip een spiking neural net draait en de andere een standaard neural net, hoe vergelijken we dan “nauwkeurigheid” of “throughput” bij een bepaalde taak? Nieuwe benchmarks die inspelen op de sterke punten van neuromorfe systemen (zoals continu leren of energiebeperkte patroonherkenning) worden ontwikkeld, maar totdat de gemeenschap het hierover eens is, is het moeilijk om de waarde van neuromorfe oplossingen aan buitenstaanders te bewijzen builtin.com. Dit gebrek aan standaardstatistieken en architectuur betekent ook dat het delen van resultaten tussen onderzoeksgroepen problematisch kan zijn – wat op de ene chip werkt, werkt mogelijk niet op een andere als hun neuronmodellen of toolchains verschillen.
- Compatibiliteit met bestaande AI: Momenteel draait het grootste deel van de wereldwijde AI op deep learning-modellen die zijn afgestemd op GPU’s en TPU’s. Deze modellen gebruiken hoge-precisie rekenkunde, dichte matrixvermenigvuldigingen, enz., die niet direct compatibel zijn met spiking neuromorfe hardware. Om te profiteren van de neuromorfe efficiëntie moet men vaak een standaard neuraal netwerk omzetten of opnieuw trainen tot een spiking neuraal netwerk, een proces dat enig verlies van nauwkeurigheid kan opleveren builtin.com. Sommige taken kunnen slechter presteren wanneer ze in het spiking-paradigma worden gedwongen. Bovendien zijn bepaalde AI-algoritmen (zoals grote transformers die in taalmodellen worden gebruikt) nog niet duidelijk geschikt voor spiking-implementaties. Dit betekent dat neuromorfe chips momenteel uitblinken in nichegebieden (bijv. visie, sensorverwerking, eenvoudige reinforcement learning), maar ze zijn op dit moment geen universele oplossing voor alle AI-problemen. Onderzoekers werken aan hybride benaderingen en betere trainingstechnieken om het nauwkeurigheidsverschil te verkleinen, maar het blijft een uitdaging om ervoor te zorgen dat een neuromorf systeem hetzelfde kwaliteitsniveau kan bereiken als een conventioneel systeem voor een bepaalde toepassing.
- Markt- en ecosysteemuitdagingen: Vanuit zakelijk perspectief is neuromorfe computing nog steeds op zoek naar zijn “killer app” en een duidelijk pad naar commercialisering. Investeerders en bedrijven zijn terughoudend omdat de terugverdientijd van de technologie onzeker is. Een analyse begin 2025 beschreef neuromorfe computing als een “veelbelovende innovatie met zware markuitdagingen,” en merkte op dat hoewel het potentieel groot is, het gebrek aan directe inkomsten genererende toepassingen het een risicovolle gok maakt voor bedrijven omdia.tech.informa.com. Er is sprake van een kip-en-ei-probleem: hardwarebouwers wachten op vraag om productie op schaal te rechtvaardigen, maar eindgebruikers wachten op toegankelijke chips om de ontwikkeling van toepassingen te rechtvaardigen. Niettemin neemt het momentum toe, en nichetoepassingen (zoals neuromorfe chips in satellieten of militaire sensoren waar stroomverbruik cruciaal is) beginnen echte waarde te tonen, wat de markt geleidelijk kan uitbreiden.
Samengevat staat neuromorphic computing in 2025 aan de frontlinie van onderzoek en engineering. Het vakgebied staat voor niet-triviale uitdagingen op het gebied van technologische ontwikkeling, tools en het opbouwen van een ecosysteem. Toch zijn geen van deze uitdagingen fundamentele obstakels – ze lijken op de hindernissen waarmee vroege parallelle computers of de beginjaren van GPU’s voor algemene computing te maken hadden. Naarmate de gemeenschap werkt aan standaardisatie, hardware verbetert en meer ontwikkelaars opleidt, kunnen we verwachten dat veel van deze beperkingen in de komende jaren zullen afnemen. Een Nature-perspectief in 2025 merkte optimistisch op dat na enkele valse starts, de samenloop van recente doorbraken (betere trainingsalgoritmen, digitale ontwerpverbeteringen en in-memory computing) “nu brede commerciële adoptie belooft” van neuromorphic technologie, mits we weten hoe we deze systemen op grote schaal kunnen programmeren en inzetten nature.com. Aan die oplossingen wordt actief gewerkt, en het komende decennium zal waarschijnlijk bepalen hoe ver neuromorphic computing zich vanaf hier zal ontwikkelen.
Recente ontwikkelingen en nieuws (stand van 2025)
De afgelopen paar jaar hebben belangrijke mijlpalen en hernieuwde interesse in neuromorphic computing laten zien, wat aangeeft dat het vakgebied aan momentum wint. Hier zijn enkele van de recente ontwikkelingen tot 2025:
- Intel’s Hala Point – Neuromorfe schaalvergroting: In april 2024 kondigde Intel Hala Point aan, het grootste neuromorfe computersysteem ooit gebouwd newsroom.intel.com. Hala Point clustert 1.152 Loihi 2-chips en bereikt een neurale capaciteit van ongeveer 1,15 miljard neuronen (vergelijkbaar met het brein van een uil) newsroom.intel.com. Het systeem is geïnstalleerd bij Sandia National Laboratories en wordt gebruikt als onderzoekstestbed voor het opschalen van neuromorfe algoritmen. Opmerkelijk is dat Hala Point het vermogen toonde om reguliere AI-werkbelastingen (zoals diepe neurale netwerken) met ongekende efficiëntie uit te voeren – met 20 biljard bewerkingen per seconde en meer dan 15 biljoen bewerkingen per seconde per watt in tests newsroom.intel.com. Intel beweert dat dit de prestaties van clusters van GPU’s/CPU’s op die taken evenaart of overtreft, maar met een veel betere energie-efficiëntie newsroom.intel.com. Het belang hiervan is dat neuromorfe systemen niet langer slechts speelgoedmodellen zijn; ze pakken AI-taken aan op een schaal die relevant is voor de industrie, wat erop wijst dat neuromorfe benaderingen in de toekomst huidige AI-versnellers kunnen aanvullen of zelfs beconcurreren. Mike Davies van Intel Labs merkte op dat Hala Point de efficiëntie van deep learning combineert met “nieuwe, door het brein geïnspireerde leermethoden” om duurzamere AI te verkennen, en dat dergelijk onderzoek kan leiden tot AI-systemen die continu leren in plaats van de huidige inefficiënte train-then-deploy-cyclus newsroom.intel.com.
- IBM’s NorthPole en Wetenschappelijke Doorbraak: Eind 2023 publiceerde IBM details over zijn NorthPole-chip in het tijdschrift Science, wat veel aandacht trok spectrum.ieee.org. NorthPole is niet alleen belangrijk vanwege de ruwe specificaties (eerder genoemd), maar vooral omdat het een duidelijke weg toont om neuromorfe chips te integreren in conventionele systemen. Van buitenaf functioneert het als een geheugeneenheid, wat betekent dat het op de geheugenbus van een computer geplaatst kan worden en kan samenwerken met bestaande CPU’s spectrum.ieee.org. Dit soort integratie is cruciaal voor commercialisering. Het Science-artikel toonde aan dat NorthPole vision-AI-modellen (zoals ResNet-50 voor beeldclassificatie en YOLO voor objectdetectie) aanzienlijk sneller en efficiënter draaide dan een NVIDIA V100 GPU – en zelfs de topklasse NVIDIA H100 versloeg in energie-efficiëntie met ongeveer 5× spectrum.ieee.org. Een onafhankelijke expert, UCLA’s Professor Vwani Roychowdhury, noemde het werk “a tour de force of engineering,” en merkte op dat omdat analoge neuromorfe technologie nog niet klaar is, NorthPole’s digitale benadering “presents a near-term option for AI to be deployed close to where it is needed.” spectrum.ieee.org. Met andere woorden, IBM liet zien dat neuromorfe chips nu al praktische impact kunnen hebben, met gebruik van de huidige fabricagetechnologie. Deze ontwikkeling werd breed uitgemeten in de techmedia en gezien als een grote stap richting het daadwerkelijk toepassen van neuromorfe ideeën in echte producten.
- Hersengeïnspireerde AI voor Ruimtevaart en Defensie: In 2022 en 2023 begonnen instanties zoals NASA en het Amerikaanse Ministerie van Defensie te experimenteren met neuromorfe processoren voor gespecialiseerde toepassingen. NASA testte een neuromorfe chip (Loihi) voor satellietbeeldverwerking en ruimtevaartuignavigatie, waar stralingsbestendigheid en laag energieverbruik cruciaal zijn. Het idee is dat een kleine neuromorfe co-processor op een satelliet sensorgegevens aan boord kan analyseren (bijvoorbeeld kenmerken op het oppervlak van een planeet detecteren of afwijkingen in ruimtevaartuigtelemetrie), zonder dat er voortdurend communicatie met de aarde nodig is, wat bandbreedte en energie bespaart. Het Air Force Research Lab werkte samen met startups (zoals BrainChip) om te onderzoeken of neuromorfe technologie complexe sensorsignalen kan in kaart brengen voor autonome vliegtuigen of raketdetectiesystemen embedded.com. De extreme energie-efficiëntie en real-time leren van neuromorfe systemen zijn zeer aantrekkelijk voor autonome militaire systemen die op batterijen of zonne-energie werken. Deze projecten bevinden zich grotendeels in testfasen, maar ze geven aan dat er steeds meer vertrouwen is in de betrouwbaarheid van neuromorfe hardware buiten het laboratorium.
- Commerciële Edge AI-producten: Tegen 2025 zien we de eerste golf van commerciële producten die neuromorfe technologie integreren. Zo is de Akida IP van BrainChip bijvoorbeeld in licentie gegeven voor gebruik in automobielsensormodules – een voorbeeld hiervan is het gebruik van neuromorfe netwerken om gegevens van bandenspanningssensoren van een auto te analyseren om slippen van de band of veranderingen in de wegconditie in realtime te detecteren. Een ander voorbeeld is in slimme huisapparaten: een neuromorfisch ondersteunde camera die op het apparaat zelf persoonsherkenning en gebarenbesturing kan uitvoeren, terwijl hij maandenlang op één batterij werkt. Dit zijn nog geen bekende namen, maar ze laten zien dat neuromorfisch rekenen zijn weg vindt naar nichetoepassingen met hoge waarde. Analisten voorspellen dat naarmate het Internet of Things (IoT) groeit, de behoefte aan kleine, energiezuinige AI zal exploderen, en neuromorfe chips een aanzienlijk deel van die markt kunnen veroveren als ze eenvoudig te integreren blijken. Marktonderzoeksrapporten voorspellen een snelle groei van de omzet in neuromorfisch rekenen in het komende decennium – met een samengesteld jaarlijks groeipercentage van 25-30% – wat mogelijk een markt van meerdere miljarden dollars creëert tegen 2030 builtin.com.
- Wereldwijde samenwerking en conferenties: De neuromorfe gemeenschap deelt actief haar vooruitgang. Conferenties zoals de Neuromorphic Engineering workshop (Telluride) en IEEE’s Neuro Inspired Computational Elements (NICE) melden een sterke toename in deelname. In 2023 toonde de Telluride-workshop neuromorfisch aangestuurde robotische honden, gezichtsherkenningsdemo’s op single-board neuromorfe systemen, en meer toepassingen van neuromorfe sensorfusie. Daarnaast groeien open-source initiatieven – zo zijn de Spiking Neural Network Architecture (SpiNNaker) code en simulatoren wereldwijd beschikbaar voor onderzoekers, en werd Intel’s Lava-software voor Loihi eind 2022 open-source gemaakt, waarmee de gemeenschap wordt uitgenodigd om bij te dragen aan algoritmes en toepassingen.
- De AI-energiecrisis en neuromorfe hoop: Een thema in recent nieuws is de energiekost van AI. Nu grote taalmodellen en AI-diensten steeds meer stroom verbruiken (sommige schattingen geven aan dat het elektriciteitsverbruik van de AI-industrie een enorm en groeiend deel van het wereldwijde verbruik uitmaakt), wordt neuromorfisch rekenen vaak genoemd als een mogelijke oplossing. Begin 2025 wees een Medium-artikel erop dat de ecologische voetafdruk van AI de pan uit rijst en noemde neuromorfe chips “AI’s groene, slimme toekomst”, en suggereerde dat 2025 een kantelpunt kan zijn waarop de industrie serieus kijkt naar door het brein geïnspireerde chips om het energieverbruik te beperken medium.com. Dit verhaal wint aan kracht in techjournalistiek en op AI-conferenties: in essentie, neuromorfisch rekenen voor duurzame AI. Ook overheden beginnen, via initiatieven voor energiezuinig rekenen, neuromorfisch onderzoek te financieren met het dubbele doel om de AI-prestaties te laten groeien en tegelijkertijd energie- en koolstofkosten te beperken.
Perspectieven van experts op de toekomst
Om dit overzicht af te ronden, is het verhelderend om te horen wat experts in het veld zeggen over neuromorfe computing en de toekomst ervan. Hier zijn een paar inzichtelijke citaten en standpunten van toonaangevende onderzoekers en figuren uit de industrie:
- Dharmendra S. Modha (IBM Fellow, Chief Scientist for Brain-Inspired Computing): “NorthPole vervaagt de grenzen tussen door het brein geïnspireerde computing en op silicium geoptimaliseerde computing, tussen rekenen en geheugen, tussen hardware en software.” spectrum.ieee.org Modha benadrukt dat IBM’s benadering met NorthPole de traditionele onderscheidingen in computerontwerp vervaagt – en een nieuwe klasse chip creëert die tegelijk processor en geheugen is, zowel hardware als algoritme. Hij pleit er al lang voor dat het samenbrengen van geheugen en rekenkracht de sleutel is tot het bereiken van breinachtige efficiëntie. Volgens hem vereisen echt neuromorfe chips een heroverweging van de hele stack, en NorthPole’s succes in het overtreffen van GPU’s is een bewijs dat deze onconventionele aanpak werkt. Modha heeft zelfs gesuggereerd dat als neuromorfe systemen worden opgeschaald, ze uiteindelijk de capaciteiten van de menselijke cortex voor bepaalde taken kunnen benaderen, en dat terwijl ze slechts een fractie van het vermogen van de huidige supercomputers gebruiken spectrum.ieee.org.
- Mike Davies (Directeur van Intel’s Neuromorphic Computing Lab): “De rekencapaciteit die nodig is voor de huidige AI-modellen stijgt in een onhoudbaar tempo… De industrie heeft fundamenteel nieuwe benaderingen nodig die kunnen opschalen.” newsroom.intel.com Davies spreekt vaak over de power efficiency wall waar AI tegenaan loopt. Hij merkt op dat simpelweg meer GPU’s inzetten op de lange termijn niet haalbaar is vanwege energie- en schaalbaarheidsbeperkingen. Neuromorphic computing, zo stelt hij, is een van de weinige wegen om vooruitgang te blijven boeken. Intel’s strategie weerspiegelt dit geloof: door te investeren in neuromorfisch onderzoek zoals Loihi en Hala Point, willen ze nieuwe algoritmes ontdekken (zoals continu leren, sparse coding, enz.) die toekomstige AI niet alleen sneller maar ook veel efficiënter kunnen maken. Davies heeft benadrukt hoe neuromorfe chips uitblinken in taken als adaptieve besturing en sensing, en hij voorziet dat ze geïntegreerd zullen worden in grotere AI-systemen – misschien een AI-server met een paar neuromorfe accelerators naast GPU’s, waarbij elk de taken uitvoert waar ze het beste in zijn. Zijn citaat onderstreept dat schaalbaarheid in AI paradigmaverschuivingen zal vereisen, en neuromorfe ontwerpen zijn zo’n verschuiving.
- Carver Mead (Pionier van Neuromorphic Engineering): (Vanuit historisch perspectief) Mead heeft vaak zijn bewondering uitgesproken voor de efficiëntie van de biologie. In interviews zei hij dingen als: “Wanneer je 10¹¹ neuronen allemaal parallel laat rekenen, kun je dingen doen met één joule energie waar een conventionele computer kilojoules of meer voor nodig zou hebben.” (vrij vertaald uit diverse lezingen). Meads visie uit de jaren 80 – dat het mengen van analoge fysica met computing hersenachtige capaciteiten zou kunnen ontsluiten – begint eindelijk vruchten af te werpen. Hij gelooft dat neuromorphic engineering “de natuurlijke voortzetting van Moore’s Law” darpa.mil is in zekere zin: nu transistor-schaalvergroting steeds minder oplevert, moeten we nieuwe manieren vinden om enorme aantallen transistors te benutten, en ze gebruiken om hersencircuits na te bootsen (die energie-efficiëntie boven precisie stellen) is een logische volgende stap. In zijn recente opmerkingen blijft Mead optimistisch dat de komende generatie ingenieurs deze ideeën verder zal verfijnen en dat neuromorfe principes toekomstige computerplatforms zullen doordringen (hoewel Mead met pensioen is, is zijn nalatenschap voelbaar in elk neuromorf project).
- Vwani Roychowdhury (Hoogleraar Elektrotechniek, UCLA): “Aangezien analoge systemen nog niet technologisch volwassen zijn, biedt dit werk een optie op korte termijn om AI in te zetten dicht bij waar het nodig is.” spectrum.ieee.org Roychowdhury gaf deze beoordeling over IBM’s NorthPole-chip. Als een onafhankelijke academicus die niet direct verbonden is aan IBM of Intel, heeft zijn perspectief gewicht: hij erkent dat hoewel de grote visie misschien analoge neuromorfe processoren zijn (die in theorie zelfs efficiënter en meer hersenachtig zouden kunnen zijn), deze nog niet klaar zijn. Ondertussen laten chips zoals NorthPole zien dat digitale neuromorfe chips de kloof kunnen overbruggen en directe voordelen kunnen bieden voor edge AI-toepassingen spectrum.ieee.org. Zijn citaat benadrukt een pragmatische kijk binnen de gemeenschap: gebruik wat nu werkt (zelfs als het digitaal gesimuleerde neuronen zijn) om alvast voordelen te behalen, en blijf ondertussen onderzoek doen naar meer exotische analoge apparaten voor de toekomst. Het is een bevestiging dat neuromorfe technologie vandaag al klaar is voor bepaalde taken.
- Onderzoekers van Los Alamos National Laboratory: In een artikel uit maart 2025 schreven AI-onderzoekers van Los Alamos dat “neuromorfisch rekenen, de volgende generatie AI, kleiner, sneller en efficiënter zal zijn dan het menselijk brein.” en.wikipedia.org Deze gedurfde uitspraak weerspiegelt het optimisme dat sommige experts hebben over het uiteindelijke potentieel van neuromorfe ontwerpen. Hoewel “kleiner en sneller” zijn dan het menselijk brein een ambitieus doel is (het brein is een buitengewoon krachtige 20-Watt machine), is het punt dat neuromorfisch rekenen AI-systemen zou kunnen brengen die niet alleen mensachtige intelligentie benaderen, maar het brein zelfs overtreffen in pure snelheid en efficiëntie voor bepaalde operaties. De context van dat citaat is het idee dat hersenen, hoe geweldig ook, een product van biologie zijn en beperkingen hebben – machines geïnspireerd door hersenen zouden mogelijk verder kunnen optimaliseren dan die beperkingen (bijvoorbeeld door te communiceren via elektrische signalen over kortere afstanden dan biologische neuronen, wat snellere signaaloverdracht mogelijk maakt, en door materialen te gebruiken die hogere vuursnelheden toestaan, enzovoort). Het is een langetermijnvisie, maar het zegt veel dat serieuze onderzoekers zulke mogelijkheden overwegen.
Deze perspectieven samen schetsen een beeld van een vakgebied dat zowel vooruitstrevend als realistisch is. De experts erkennen de obstakels, maar zijn duidelijk enthousiast over de koers. Het terugkerende thema is dat neuromorfisch rekenen wordt gezien als een sleutel tot de toekomst van computing – vooral voor AI en machine learning. Het gaat niet om het vervangen van het brein of het creëren van bewuste machines, maar om inspiratie uit de biologie te halen om huidige grenzen te doorbreken. Zoals Modha het treffend samenvatte, is het doel om het beste van beide werelden te combineren: hersenachtige aanpasbaarheid en efficiëntie met de voordelen van moderne siliciumcomputers spectrum.ieee.org.
Verdere literatuur en bronnen
Voor wie neuromorphic computing verder wil verkennen, zijn hier enkele betrouwbare bronnen en referenties:
- IBM Research – Neuromorphic Computing: IBM’s overzichtsartikel “What is neuromorphic computing?” biedt een toegankelijke introductie en belicht IBM’s projecten zoals TrueNorth en NorthPole ibm.comibm.com.
- Intel Neuromorphic Research Community: Intel’s newsroom en onderzoeksblogs bevatten updates over Loihi en Hala Point, waaronder het persbericht van april 2024 met details over de specificaties en doelen van Hala Point newsroom.intel.com.
- DARPA SyNAPSE Program: DARPA’s aankondiging uit 2014 van de IBM TrueNorth-chip biedt inzicht in de motivaties (energie-efficiëntie) en de architectuur van de chip darpa.mil.
- IEEE Spectrum: Het artikel van oktober 2023 “IBM Debuts Brain-Inspired Chip For Speedy, Efficient AI” door Charles Q. Choi onderzoekt de NorthPole-chip in detail en bevat commentaar van expertsspectrum.ieee.org.
- Nature en Nature Communications: Voor een meer academisch perspectief publiceerde Nature Communications (april 2025) “The road to commercial success for neuromorphic technologies” nature.com, waarin het verdere traject en de resterende uitdagingen worden besproken. Science (okt 2023) bevat het technische artikel over NorthPole voor wie zich in de details wil verdiepen.
- BuiltIn & Medium-artikelen: De techsite BuiltIn heeft een uitgebreide introductie over neuromorfisch rekenen, inclusief voordelen en uitdagingen in begrijpelijke taal builtin.com. Ook hebben enkele Medium-schrijvers artikelen geschreven (bijv. over waarom bedrijven als IBM en Intel investeren in neuromorfisch) voor een algemeen publieksperspectief medium.com.
Neuromorfisch rekenen is een snelgroeiend vakgebied op het snijvlak van informatica, elektronica en neurowetenschap. Het vertegenwoordigt een gedurfde herziening van hoe we machines bouwen die “denken.” Zoals we hebben besproken, is de reis van concept tot realiteit al decennia aan de gang, maar de vooruitgang is onmiskenbaar en versnelt. Als de huidige trends zich voortzetten, zouden door het brein geïnspireerde chips binnenkort de CPU’s en GPU’s in onze apparaten kunnen aanvullen, waardoor AI alomtegenwoordig en ultra-efficiënt wordt. In de woorden van een onderzoeksteam staat neuromorfe technologie op het punt “de volgende generatie van AI” en.wikipedia.org te worden – een evolutie die computergebruik fundamenteel kan veranderen zoals we dat nu kennen. Het is een gebied om de komende jaren goed in de gaten te houden.
Bronnen:
- IBM Research, “What is Neuromorphic Computing?” (2024 )ibm.com
- DARPA News, “SyNAPSE Program Develops Advanced Brain-Inspired Chip” (aug 2014) darpa.mil
- Intel Newsroom, “Intel Builds World’s Largest Neuromorphic System (Hala Point)” (17 apr 2024) newsroom.intel.com
- IEEE Spectrum, “IBM Debuts Brain-Inspired Chip For Speedy, Efficient AI” (23 okt 2023) spectrum.ieee.org
- BuiltIn, “What Is Neuromorphic Computing?” (2023) builtin.com
- Nature Communications, “De weg naar commercieel succes voor neuromorfe technologieën” (15 apr 2025) nature.com
- Wikipedia, “Neuromorfisch rekenen” (geraadpleegd 2025) en.wikipedia.org