Computación neuromórfica: la tecnología inspirada en el cerebro que está revolucionando la IA y más allá

agosto 31, 2025
Neuromorphic Computing: The Brain-Inspired Tech Revolutionizing AI and Beyond
  • TrueNorth, el chip de IBM presentado en 2014, integra 1.000.000 de neuronas y 256.000.000 de sinapsis, consumiendo menos de 100 mW.
  • El diseño de TrueNorth se organiza en 4.096 núcleos neurosinápticos que se comunican por picos para un procesamiento masivamente paralelo.
  • NorthPole, el siguiente chip de IBM en 2023, contiene 22.000.000.000 de transistores en un encapsulado de 800 mm² y fusiona memoria y cómputo, siendo 25× más eficiente y 22× más rápido que los principales chips de IA en reconocimiento de imágenes.
  • Intel lanzó Loihi en 2017 como procesador neuromórfico digital con 128 núcleos, 130.000 neuronas y 130 millones de sinapsis, con motor de aprendizaje integrado en el propio chip.
  • Loihi 2, presentado junto a Hala Point en 2024, agrupa 1.152 chips Loihi 2 para un sistema con ~1,15 mil millones de neuronas y 20 cuatrillones de operaciones por segundo, con >15 billones de operaciones por segundo por vatio.
  • El sistema SpiNNaker de la Universidad de Manchester, con desarrollo hasta 2018, consiguió una red de más de un millón de núcleos para simular mil millones de neuronas de picos en tiempo real.
  • BrainScaleS, en Heidelberg, utiliza circuitos analógicos en obleas de silicio para emular neuronas a velocidades aceleradas y forma parte de EBRAINS para el acceso investigador.
  • Akida de BrainChip es un procesador neuromórfico digital y basado en eventos para IA en borde, licenciado en módulos de sensores y probado por NASA y el Air Force Research Lab para aplicaciones espaciales y sensores.
  • La computación neuromórfica aún enfrenta madurez tecnológica y falta de herramientas de software estandarizadas como Lava o Nengo, dificultando la comparación entre chips y la adopción comercial.
  • Las proyecciones de Gartner/PwC y Nature apuntan a un crecimiento significativo, con un CAGR estimado del 25-30% hasta 2030 y un mercado de varios miles de millones de dólares para la neuromórfica.

¿Qué es la computación neuromórfica (y cómo funciona)?


La computación neuromórfica – a veces llamada computación inspirada en el cerebro – es un enfoque de diseño de computadoras que imita la estructura y función del cerebro humano [1]. En lugar del modelo tradicional donde unidades separadas manejan el procesamiento y la memoria, los sistemas neuromórficos integran estas funciones en redes de “neuronas” y “sinapsis” artificiales, muy parecido a un cerebro biológico. En términos simples, un chip neuromórfico es un chip de computadora que opera como una red de células cerebrales, procesando información a través de grandes cantidades de neuronas interconectadas [2].

En el núcleo de la computación neuromórfica están las redes neuronales de picos (SNNs) – redes de neuronas artificiales que se comunican mediante breves pulsos eléctricos llamados “picos”, análogos a los picos de voltaje en las neuronas biológicas [3]. Cada neurona acumula señales entrantes a lo largo del tiempo y “dispara” un pico a otras neuronas solo cuando se alcanza un cierto umbral [4]. Si las entradas permanecen por debajo del umbral, la señal eventualmente se desvanece (a menudo descrito como la carga de la neurona que se va filtrando). Este estilo de computación impulsado por eventos significa que, a diferencia de los procesadores convencionales que trabajan continuamente, los chips neuromórficos permanecen mayormente inactivos y solo activan neuronas cuando hay datos que procesar [5]. Como resultado, consumen mucha menos energía – la mayor parte de la red “similar al cerebro” permanece inactiva hasta que se necesita, tal como nuestros cerebros tienen miles de millones de neuronas pero solo un pequeño porcentaje se activa en un momento dado[6].

Otra característica clave es que el procesamiento y la memoria están co-ubicados. En un diseño neuromórfico, cada neurona puede tanto almacenar como procesar información, mientras que en una computadora clásica los datos se mueven constantemente de un lado a otro entre la CPU y bancos de memoria separados. Al integrar la memoria en los elementos de cómputo (las neuronas), los chips neuromórficos evitan el cuello de botella del traslado de datos de las arquitecturas tradicionales [7], [8]. Esto genera un paralelismo y eficiencia masivos: muchas neuronas trabajan simultáneamente y solo se necesita comunicación local. Como explica el líder de investigación neuromórfica de IBM, Dharmendra Modha, “El cerebro es mucho más eficiente energéticamente que las computadoras modernas, en parte porque almacena la memoria junto al cómputo en cada neurona.”[9]. En efecto, los sistemas neuromórficos operan más como redes neuronales vivas que como computadoras seriales convencionales, permitiendo procesamiento de información en tiempo real y comunicación dispersa, basada en eventos entre neuronas [10].

Una breve historia y hitos clave

La computación neuromórfica puede sonar futurista, pero sus orígenes conceptuales se remontan a la década de 1980. El término “neuromórfico” (que significa “con forma de cerebro”) fue acuñado por Carver Mead, un profesor de Caltech que fue pionero en este campo a finales de los años 80 [11]. En esa época, Mead y colegas como Misha Mahowald construyeron los primeros “neuronas de silicio” experimentales y chips sensoriales – por ejemplo, una retina de silicio analógica que podía detectar la luz como un ojo humano, y una cóclea de silicio que procesaba el sonido [12]. Estos primeros chips demostraron que los circuitos electrónicos podían emular funciones neuronales básicas, dando lugar a la visión de que las computadoras algún día podrían funcionar más como cerebros.

A lo largo de las décadas de 1990 y 2000, la ingeniería neuromórfica permaneció en gran medida en el ámbito académico y en laboratorios de investigación, avanzando de manera constante en segundo plano. Un hito importante llegó en 2014 con el chip TrueNorth de IBM, desarrollado bajo el programa SyNAPSE de DARPA. TrueNorth integró 1 millón de “neuronas” y 256 millones de “sinapsis” en un solo chip, con la asombrosa cantidad de 5.400 millones de transistores – todo ello consumiendo menos de 100 milivatios de energía [13]. Este “cerebro en un chip”, inspirado en la arquitectura de los cerebros de mamíferos, podía realizar tareas complejas de reconocimiento de patrones con dos órdenes de magnitud menos energía que los procesadores convencionales [14]. El diseño de TrueNorth era impulsado por eventos y masivamente paralelo: 4.096 núcleos neurosinápticos se comunicaban mediante picos, demostrando la viabilidad del hardware neuromórfico a gran escala. IBM comparó la escala de TrueNorth (un millón de neuronas) aproximadamente con el cerebro de una abeja o una cucaracha, y demostró que los chips neuromórficos podían ser tanto eficientes en consumo de energía como capaces de realizar tareas similares a las del cerebro [15].

Otro avance se produjo en 2017 cuando Intel presentó su chip neuromórfico Loihi. Loihi era un procesador neuromórfico totalmente digital que contaba con 128 núcleos con 130.000 neuronas y 130 millones de sinapsis implementados en silicio [16]. De manera importante, Loihi estaba dotado de aprendizaje en el propio chip: cada núcleo neuronal tenía un motor de aprendizaje integrado, lo que permitía al chip modificar los pesos sinápticos y “aprender” de los patrones con el tiempo. En una demostración, Intel mostró que Loihi podía aprender a reconocer los olores de sustancias químicas peligrosas – esencialmente enseñando a un chip a oler al procesar datos de sensores olfativos de una manera similar al cerebro [17]. Esta capacidad de autoaprendizaje puso de relieve cómo los sistemas neuromórficos pueden adaptarse en tiempo real, un paso más allá de ejecutar redes neuronales previamente entrenadas.

Desde entonces, el progreso se ha acelerado. Las universidades construyeron supercomputadoras neuromórficas especializadas como SpiNNaker (Universidad de Manchester), una máquina con más de un millón de pequeños procesadores diseñada para simular mil millones de neuronas de picos en tiempo real [18]. En Europa, el Human Brain Project (2013–2023), que duró una década, apoyó plataformas neuromórficas como BrainScaleS (Universidad de Heidelberg), que utiliza circuitos electrónicos analógicos para emular neuronas, y una versión de SpiNNaker – ambas accesibles para investigadores a través de la infraestructura de investigación EBRAINS [19]. Estos proyectos académicos a gran escala fueron hitos que demostraron cómo los principios neuromórficos podían escalar.

En el sector industrial, IBM, Intel y otros continúan impulsando la frontera. El último desarrollo neuromórfico de IBM, revelado en 2023, tiene el nombre en clave NorthPole – un chip que fusiona la memoria y el procesamiento aún más estrechamente. NorthPole logra avances dramáticos en velocidad y eficiencia, siendo supuestamente 25× más eficiente energéticamente y 22× más rápido que los principales chips de IA convencionales en tareas de reconocimiento de imágenes [20]. Cuenta con 22 mil millones de transistores en un encapsulado de 800 mm², y al eliminar completamente la memoria fuera del chip, reduce drásticamente la energía desperdiciada en el movimiento de datos [21]. Los investigadores de IBM describen NorthPole como “un avance en la arquitectura de chips que ofrece mejoras masivas en eficiencia energética, espacial y temporal” [22], basándose en las lecciones de TrueNorth una década antes. En paralelo, Intel presentó en 2021 un chip de segunda generación, Loihi 2, y en 2024 anunció Hala Point, un super-sistema neuromórfico que contiene 1.152 chips Loihi 2 con un total combinado de 1.200 millones de neuronas – acercándose aproximadamente a la capacidad cerebral de un ave pequeña (un búho) [23]. Desplegado en los Laboratorios Nacionales Sandia, Hala Point es actualmente la computadora neuromórfica más grande del mundo, destinada a explorar la investigación de IA a escala cerebral.

Desde las neuronas de un transistor de Carver Mead hasta los sistemas actuales de mil millones de neuronas, la computación neuromórfica ha evolucionado de una idea académica de nicho a una tecnología de vanguardia. La historia está marcada por mejoras constantes en escala, eficiencia energética y realismo en el procesamiento similar al cerebro, preparando el escenario para la próxima era de la computación.

Tecnologías clave en la computación neuromórfica

La computación neuromórfica reúne innovaciones en dispositivos de hardware y modelos de redes neuronales. Algunas de las tecnologías clave que permiten este enfoque inspirado en el cerebro incluyen:

  • Redes Neuronales de Picos (SNNs): Como se mencionó, las SNNs son la columna vertebral algorítmica de los sistemas neuromórficos. A veces se las llama la “tercera generación” de redes neuronales [24], incorporando el elemento del tiempo en los modelos de neuronas. A diferencia de las activaciones continuas y constantes en las redes neuronales artificiales estándar, las neuronas de picos se comunican mediante picos discretos, lo que permite la codificación temporal (la información se transmite por el momento de los picos) y el funcionamiento dirigido por eventos. Las SNNs pueden modelar fenómenos como el tiempo neuronal, los periodos refractarios y la plasticidad (aprendizaje mediante cambios en la fuerza sináptica) de manera más natural que las redes tradicionales [25]. Esto las hace muy adecuadas para procesar flujos de datos sensoriales (visión, audio, etc.) en tiempo real. Sin embargo, desarrollar algoritmos de entrenamiento para SNNs es una tarea compleja: los investigadores utilizan métodos que van desde mapear redes profundas entrenadas a equivalentes de picos hasta reglas de aprendizaje inspiradas en la biología [26]. Las SNNs son un área de investigación vibrante y una pieza fundamental del rompecabezas neuromórfico.
  • Memristores y Dispositivos Innovadores: Muchas plataformas neuromórficas aún utilizan transistores de silicio convencionales, pero existe un gran interés en nuevos dispositivos como los memristores (resistores de memoria). Un memristor es un elemento electrónico a nanoescala que puede almacenar datos simultáneamente (como la memoria) y realizar cálculos (como un resistor/red) cambiando su resistencia según el flujo de corriente; esencialmente imita la capacidad de una sinapsis de “recordar” al fortalecer o debilitar conexiones [27]. Los memristores y otras tecnologías de memoria resistiva (por ejemplo, memoria de cambio de fase, dispositivos ferroeléctricos, dispositivos espintrónicos) pueden implementar sinapsis “analógicas” que se actualizan de forma continua, permitiendo arquitecturas de computación en memoria. Al integrar la memoria en los mismos dispositivos físicos que realizan el cálculo, eliminan aún más la separación inherente al paradigma informático tradicional. Estos componentes emergentes prometen ganancias de eficiencia de varios órdenes de magnitud; sin embargo, todavía son experimentales en 2025 y enfrentan desafíos de fiabilidad y fabricación. Como señaló un experto, los sistemas neuromórficos analógicos tienen un enorme potencial pero “aún no han alcanzado la madurez tecnológica”, por lo que muchos diseños actuales (como NorthPole de IBM y Loihi de Intel) se mantienen en circuitos digitales como solución a corto plazo [28].
  • Circuitos Asíncronos y Hardware Controlado por Eventos: Los chips neuromórficos suelen emplear lógica asíncrona, lo que significa que no tienen un reloj global único que impulse cada operación al unísono. En su lugar, el cálculo se distribuye y es activado por eventos. Cuando una neurona emite un pico, activa a las neuronas posteriores; si no hay actividad, partes del circuito quedan inactivas. Este enfoque de hardware, a veces llamado diseño “sin reloj” o basado en eventos, respalda directamente las cargas de trabajo dispersas y controladas por picos de las SNN. Es una desviación del diseño síncrono de la mayoría de las CPU/GPU. Por ejemplo, TrueNorth de IBM funcionaba completamente de manera asíncrona, y sus neuronas se comunicaban mediante paquetes en una red en chip cuando ocurrían eventos [29]. Esto no solo ahorra energía, sino que también se alinea con la forma en que las redes neuronales biológicas operan en paralelo sin un reloj maestro.
  • Arquitectura de Cómputo en Memoria: Un término a menudo asociado con los chips neuromórficos es cómputo en memoria, donde los elementos de memoria (ya sea SRAM, memoria no volátil o memristores) están ubicados junto a las unidades de cómputo. Al hacerlo, los diseños neuromórficos minimizan el movimiento de datos – una de las mayores fuentes de consumo de energía en la computación [30]. En la práctica, esto puede significar que cada núcleo de neurona en un chip tiene su propia memoria local que almacena su estado y pesos sinápticos, eliminando los viajes constantes a la DRAM externa. El chip NorthPole de IBM ejemplifica esto: elimina por completo la memoria fuera del chip, colocando todos los pesos en el chip y haciendo que el chip aparezca como un dispositivo de “memoria activa” para un sistema [31]. El cómputo en memoria puede lograrse digitalmente (como lo hace NorthPole) o mediante medios analógicos (usando arreglos de barras cruzadas de memristores para realizar operaciones matriciales in situ). Este concepto es fundamental para alcanzar la eficiencia similar al cerebro.

En resumen, la computación neuromórfica se basa en neurociencia (neuronas de picos, sinapsis plásticas), hardware novedoso (memristores, memoria de cambio de fase), y diseño de circuitos no tradicional (controlado por eventos, integración memoria-cómputo) para crear sistemas de computación que operan bajo principios completamente diferentes a los chips actuales de alto consumo energético.

Neuromórfico vs. Paradigmas de Computación Tradicional

Para apreciar la computación neuromórfica, ayuda contrastarla con la arquitectura tradicional de Von Neumann que ha dominado desde mediados del siglo XX. En una computadora clásica (ya sea una PC o un teléfono inteligente), el diseño es fundamentalmente serial y separado: un procesador central obtiene instrucciones y datos de la memoria, los ejecuta (uno tras otro, muy rápidamente) y escribe los resultados de vuelta en la memoria. Incluso si las CPU y GPU modernas usan núcleos o canalizaciones en paralelo, aún sufren del llamado cuello de botella de Von Neumann – la necesidad de mover continuamente datos hacia y desde la memoria, lo que cuesta tiempo y energía [32], [33]. Imagina a un chef que tiene que correr a la despensa por cada ingrediente antes de picar y mezclar; eso es similar a cómo funcionan las computadoras estándar.

Las computadoras neuromórficas, en cambio, operan más como una vasta red de mini-procesadores (neuronas) que trabajan todos en paralelo, cada uno con su propia memoria local. No hay un reloj central ni un contador de programa que avance por las instrucciones de forma serial. En cambio, el cálculo ocurre de manera colectiva y asincrónica: miles o millones de neuronas realizan operaciones simples simultáneamente y comunican resultados mediante picos. Esto es análogo a cómo el cerebro humano maneja tareas: miles de millones de neuronas disparando en paralelo, sin una sola CPU a cargo. El resultado es un sistema que puede ser masivamente paralelo y orientado a eventos, manejando muchas señales a la vez y esperando de forma natural cuando no hay nada que hacer.

Los beneficios incluyen velocidad gracias al paralelismo y una eficiencia energética mucho mayor. Un procesador tradicional podría usar 100 vatios para ejecutar un modelo de IA grande, en gran parte debido al cambio de miles de millones de transistores y al movimiento de datos dentro y fuera de las memorias caché. En cambio, los chips neuromórficos usan eventos y activación dispersa: si solo el 5% de las neuronas están activas a la vez, el otro 95% prácticamente no consume energía. Esta actividad dispersa es una de las razones por las que las arquitecturas neuromórficas han demostrado hasta 1000× mejor eficiencia energética en ciertas tareas de IA en comparación con CPUs/GPUs [34]. De hecho, el cerebro humano, al que aspiran nuestros diseños neuromórficos, funciona con solo unos 20 vatios de potencia (menos que una bombilla tenue) y, sin embargo, supera a las supercomputadoras actuales en áreas como visión y reconocimiento de patrones [35]. Como dijo el director del laboratorio neuromórfico de Intel, Mike Davies, “El costo computacional de los modelos de IA actuales está aumentando a tasas insostenibles. La industria necesita enfoques fundamentalmente nuevos capaces de escalar.” [36] La computación neuromórfica ofrece uno de esos nuevos enfoques al integrar la memoria con el cómputo y aprovechar arquitecturas altamente paralelas, similares al cerebro, para minimizar el movimiento de datos y el uso de energía [37].

Sin embargo, es importante señalar que la computación neuromórfica no es un reemplazo directo para toda la computación. Los procesadores deterministas tradicionales sobresalen en tareas precisas y lineales (como aritmética, consultas de bases de datos, etc.), mientras que los sistemas neuromórficos destacan en tareas sensoriales, perceptuales y de reconocimiento de patrones donde el procesamiento similar al cerebro brilla. En muchas visiones del futuro, los chips neuromórficos complementarán a las CPU y GPU clásicas, actuando como coprocesadores especializados para cargas de trabajo de IA que impliquen percepción, aprendizaje o adaptación, de la misma manera que las GPU hoy aceleran los gráficos y las matemáticas de redes neuronales. Los dos paradigmas pueden coexistir, con el hardware neuromórfico manejando las tareas “similares al cerebro” de una manera fundamentalmente más eficiente. En esencia, las máquinas de Von Neumann son como calculadoras secuenciales, mientras que las máquinas neuromórficas son como reconocedoras de patrones en paralelo; cada una tiene su lugar.

Principales actores y proyectos que impulsan la tecnología neuromórfica

La computación neuromórfica es un esfuerzo multidisciplinario que abarca empresas tecnológicas, laboratorios de investigación y el mundo académico. Grandes corporaciones, startups y agencias gubernamentales han apostado por desarrollar hardware y software inspirados en el cerebro. Estos son algunos de los actores y proyectos clave hasta 2025:

  • IBM: IBM ha sido pionera en la investigación de computación cognitiva. Más allá del emblemático chip TrueNorth (2014) con 1 millón de neuronas, el equipo de investigación de IBM liderado por Dharmendra Modha presentó recientemente NorthPole (2023), un chip neuromórfico de inferencia de próxima generación. El avance de NorthPole consiste en entrelazar estrechamente el cómputo y la memoria en el chip, logrando una eficiencia sin precedentes para tareas de inferencia de IA [38]. IBM informa que NorthPole puede superar incluso a las GPU más avanzadas en pruebas como el reconocimiento de imágenes, utilizando solo una fracción de la energía [39]. La visión a largo plazo de IBM es utilizar estos chips para alimentar sistemas de IA mucho más eficientes energéticamente, lo que podría permitir que la IA funcione en todo, desde centros de datos hasta dispositivos de borde, sin las limitaciones energéticas actuales.
  • Intel: Intel estableció un Laboratorio de Computación Neuromórfica dedicado e introdujo la familia de chips Loihi. El primer Loihi (2017) y Loihi 2 (2021) son chips de investigación puestos a disposición de universidades y empresas a través de la Comunidad de Investigación Neuromórfica de Intel. El enfoque de Intel es completamente digital, pero con núcleos de picos asincrónicos y aprendizaje en el chip. En abril de 2024, Intel anunció Hala Point, esencialmente una supercomputadora neuromórfica con más de mil chips Loihi 2 conectados entre sí [40]. Hala Point, desplegada en Sandia Labs, puede simular más de 1 mil millones de neuronas y se está utilizando para explorar algoritmos a gran escala inspirados en el cerebro y sistemas de IA de aprendizaje continuo [41]. Intel ve la tecnología neuromórfica como clave para una IA más sostenible, con el objetivo de reducir drásticamente la energía necesaria para el entrenamiento y la inferencia de modelos de IA [42]. Como señaló Mike Davies en el lanzamiento, escalar la IA actual usando el hardware existente es inviable por el consumo energético, por lo que Intel apuesta por los diseños neuromórficos para superar esa barrera de eficiencia [43].
  • Qualcomm: Qualcomm ha explorado principios neuromórficos para IA de bajo consumo en dispositivos. Al principio (alrededor de 2013-2015) desarrolló una plataforma llamada “Zeroth” y demostró aceleradores de redes neuronales de picos para tareas como el reconocimiento de patrones en teléfonos inteligentes. En los últimos años, los esfuerzos neuromórficos de Qualcomm son menos públicos, pero los informes sugieren que continúan con I+D, especialmente porque la computación neuromórfica se alinea con la IA de borde de ultra bajo consumo (una combinación natural para el negocio de chips móviles y embebidos de Qualcomm) [44]. El interés de Qualcomm subraya que incluso los fabricantes de chips móviles ven potencial en los diseños inspirados en el cerebro para mantenerse al día con las demandas de IA sin agotar las baterías de los dispositivos.
  • BrainChip Holdings: Una startup australiana, BrainChip, es una de las primeras en comercializar IP neuromórfica. Su procesador neuromórfico Akida es un diseño totalmente digital y basado en eventos que puede usarse como acelerador de IA en dispositivos de borde [45]. BrainChip enfatiza el aprendizaje y la inferencia en tiempo real con presupuestos de energía pequeños; por ejemplo, añadiendo reconocimiento local de gestos o anomalías a sensores IoT o vehículos sin conectividad a la nube. A partir de 2025, BrainChip ha estado colaborando con socios para integrar Akida en productos que van desde sensores inteligentes hasta sistemas aeroespaciales, e incluso ha demostrado procesamiento neuromórfico para aplicaciones espaciales (trabajando con organizaciones como la NASA y el Air Force Research Lab) [46], [47]. Startups como BrainChip ilustran el creciente interés comercial en llevar la tecnología neuromórfica al mercado para IA de borde e IoT.
  • Laboratorios Académicos y Gubernamentales: En el ámbito académico, varias universidades y coaliciones han construido sistemas neuromórficos significativos. Mencionamos SpiNNaker (Universidad de Manchester, Reino Unido), que en 2018 logró una red neuronal de hardware con un millón de núcleos, con el objetivo de modelar el 1% de las neuronas del cerebro humano en tiempo real [48]. También está BrainScaleS (Universidad de Heidelberg, Alemania), que utiliza circuitos analógicos en grandes obleas de silicio para emular redes neuronales a velocidades aceleradas (efectivamente “avanzando rápido” los procesos neuronales para estudiar el aprendizaje). En EE. UU., instituciones de investigación como Stanford (que creó el sistema Neurogrid capaz de simular un millón de neuronas [49]) y el MIT, entre otros, tienen laboratorios activos de ingeniería neuromórfica. Agencias gubernamentales como DARPA han continuado financiando programas (por ejemplo, el actual programa “Redes Neuronales Electrónicas Fotónicas” que explora chips neuromórficos fotónicos). Mientras tanto, el Proyecto Cerebro Humano de la UE (HBP) invirtió fuertemente en infraestructuras neuromórficas a través de su Plataforma de Computación Neuromórfica, y sus iniciativas sucesoras bajo la infraestructura de investigación EBRAINS continúan proporcionando acceso a hardware neuromórfico para científicos [50].
  • Otros Actores de la Industria: Más allá de IBM e Intel, empresas como Samsung y HRL Laboratories han incursionado en la tecnología neuromórfica. En 2021, investigadores de Samsung anunciaron una visión para “copiar y pegar” las conexiones neuronales del cerebro en chips de memoria, utilizando esencialmente matrices de memoria 3D para mapear la conectividad de un cerebro biológico como un sistema neuromórfico – una meta ambiciosa aún lejos de la implementación práctica. HRL Labs (copropiedad de Boeing y GM) desarrolló un chip neuromórfico con memristores que demostró aprendizaje de un solo intento en 2019 (el dispositivo podía aprender a reconocer un patrón a partir de un solo ejemplo). Además, startups europeas como GrAI Matter Labs (con sus chips GrAI “NeuronFlow” [51]) y SynSense (una empresa con sede en Zúrich/China conocida por chips de visión de ultra bajo consumo) son contribuyentes destacados.

En resumen, el campo neuromórfico es una mezcla colaborativa de gigantes tecnológicos que empujan los límites, startups que aportan innovación a mercados especializados, y consorcios académicos que exploran nuevas fronteras. Este amplio ecosistema está acelerando el progreso y llevando las ideas neuromórficas fuera del laboratorio y hacia aplicaciones en el mundo real.

Aplicaciones Actuales y Casos de Uso en el Mundo Real

La computación neuromórfica sigue siendo una tecnología emergente, por lo que sus aplicaciones en el mundo real están en pañales; sin embargo, se han realizado demostraciones prometedoras en varios campos. Piensa en tareas que nuestros cerebros manejan de manera notable (y eficiente), pero con las que las computadoras convencionales tienen dificultades, y ahí es donde los sistemas neuromórficos destacan. Aquí hay algunos casos de uso notables y aplicaciones potenciales:

  • Vehículos autónomos: Los autos y drones autónomos necesitan reaccionar a entornos dinámicos en tiempo real. Los chips neuromórficos, con su rápido procesamiento en paralelo y bajo consumo de energía, pueden ayudar a los vehículos a percibir y tomar decisiones de manera más similar a como lo haría un conductor humano. Por ejemplo, un procesador neuromórfico puede recibir datos de cámaras y sensores y detectar obstáculos o tomar decisiones de navegación con una latencia muy baja. Investigadores de IBM señalan que la computación neuromórfica podría permitir correcciones de rumbo y evasión de colisiones más rápidas en vehículos autónomos, todo mientras reduce drásticamente el consumo de energía (importante para vehículos eléctricos y drones) [52]. En términos prácticos, una red neuronal de picos podría estar analizando continuamente el entorno de un automóvil, pero solo activando neuronas cuando hay un evento relevante (como un peatón cruzando la calle), lo que permite reflejos rápidos sin desperdiciar energía en cálculos innecesarios.
  • Ciberseguridad y detección de anomalías: Los sistemas de ciberseguridad necesitan detectar patrones inusuales (posibles intrusiones o fraudes) dentro de enormes flujos de datos. Las arquitecturas neuromórficas son naturalmente aptas para el reconocimiento de patrones y pueden usarse para señalar anomalías en tiempo real. Debido a que son impulsadas por eventos, pueden monitorear el tráfico de red o los datos de sensores y solo activarse cuando surge un patrón realmente anormal. Esto permite la detección de amenazas en tiempo real con baja latencia, y es lo suficientemente eficiente en energía como para que dicho sistema pueda funcionar de manera continua en hardware modesto [53]. Algunos experimentos han utilizado chips neuromórficos para detectar intrusiones en redes o fraudes con tarjetas de crédito aprendiendo los patrones “normales” y luego detectando desviaciones sin procesar cada punto de datos en una CPU que consume mucha energía.
    • IA de Borde y Dispositivos IoT: Uno de los casos de uso más inmediatos para la computación neuromórfica es en dispositivos de borde – como sensores inteligentes, wearables o electrodomésticos – donde los recursos de energía y cómputo son limitados. El funcionamiento de ultra bajo consumo de los chips neuromórficos significa que pueden llevar capacidades de IA (como reconocimiento de voz, reconocimiento de gestos o detección de eventos) a los dispositivos sin necesidad de servidores en la nube ni recargas frecuentes de batería [54]. Por ejemplo, un dron equipado con un sensor de visión neuromórfico podría navegar y evitar obstáculos por sí solo, respondiendo tan rápida y eficientemente como un murciélago usando ecolocación. Los drones con sistemas de visión neuromórfica han demostrado la capacidad de atravesar terrenos complejos y reaccionar a los cambios solo aumentando el cómputo cuando hay nueva entrada sensorial, de manera similar a como funciona el cerebro de una criatura [55]. De igual manera, un smartwatch o monitor de salud con un pequeño chip neuromórfico podría analizar continuamente bioseñales (frecuencia cardíaca, EEG, etc.) localmente, detectar anomalías como arritmias o convulsiones en tiempo real, y hacerlo durante días con una sola carga de batería – algo extremadamente difícil con chips convencionales. (De hecho, una anécdota reciente describió un smartwatch potenciado por neuromórfica detectando una arritmia cardíaca de un paciente en el momento, lo que habría sido complicado con análisis basado en la nube [56].)
  • Reconocimiento de Patrones y Computación Cognitiva: Los sistemas neuromórficos son inherentemente buenos en tareas que implican reconocer patrones en datos ruidosos – ya sean imágenes, sonidos o señales de sensores. Se han aplicado en configuraciones experimentales para reconocimiento de imágenes, procesamiento de voz y auditivo, e incluso detección olfativa (como con el chip Loihi de Intel aprendiendo diferentes olores) [57]. Los chips neuromórficos también pueden interactuar con sensores analógicos (como sensores de visión dinámica que emiten picos ante cambios en una escena) para crear sistemas de sensado neuromórfico de extremo a extremo. En medicina, los procesadores neuromórficos podrían analizar flujos de señales biomédicas (ondas cerebrales EEG, por ejemplo) y detectar eventos o patrones significativos para el diagnóstico [58]. Su capacidad de aprender y adaptarse también significa que podrían personalizar el reconocimiento de patrones en el propio dispositivo – por ejemplo, un audífono neuromórfico podría adaptarse continuamente al entorno específico del usuario y mejorar cómo filtra el ruido frente al habla.
  • Robótica y Control en Tiempo Real: La robótica a menudo requiere bucles de retroalimentación ajustados para controlar motores, interpretar sensores y tomar decisiones sobre la marcha. Los controladores neuromórficos pueden dar a los robots una forma de reflejos y adaptabilidad. Debido a que procesan la información en paralelo y pueden aprender de la retroalimentación sensorial, son muy adecuados para tareas como equilibrar, agarrar u caminar en terrenos impredecibles. Los investigadores han utilizado chips neuromórficos para controlar brazos y piernas robóticos, donde el controlador puede aprender a ajustar las señales del motor en función de las entradas de los sensores en tiempo real, de manera similar a como un humano aprende habilidades motoras. Una ventaja observada es que los robots impulsados por redes neuronales de picos pueden seguir funcionando incluso si algunas neuronas fallan (una especie de degradación gradual), proporcionando tolerancia a fallos similar a los sistemas biológicos [59]. Empresas como Boston Dynamics han insinuado que exploran sistemas inspirados en la neuromórfica para mejorar la eficiencia y los tiempos de reacción de los robots. En la manufactura, un sistema de visión neuromórfico podría permitir que un robot reconozca objetos o navegue por una fábrica concurrida de manera más natural y responda más rápido a cambios repentinos [60].
  • Interfaces Cerebro-Máquina y Neurociencia: Dado que los chips neuromórficos operan con principios tan cercanos a los cerebros biológicos, se están utilizando como herramientas para comprender la neurociencia e incluso para interactuar con neuronas vivas. Por ejemplo, los científicos pueden conectar cultivos neuronales vivos a hardware neuromórfico para crear sistemas híbridos, usando el chip para estimular o monitorear las neuronas biológicas de maneras que las computadoras normales no pueden hacer fácilmente en tiempo real. Además, los modelos neuromórficos ayudan a los neurocientíficos a probar hipótesis sobre cómo podrían funcionar ciertos circuitos neuronales en el cerebro, replicando esos circuitos en silicio y viendo si se comportan de manera similar. Si bien estas son aplicaciones más de investigación que comerciales, subrayan la versatilidad de la tecnología.

Cabe destacar que muchas de estas aplicaciones aún están en etapas de prototipo o investigación. La computación neuromórfica en 2025 está aproximadamente donde la IA convencional estaba quizás a principios de la década de 2010: vemos demostraciones prometedoras y usos de nicho, pero la tecnología apenas comienza a salir del laboratorio. Consultoras tecnológicas como Gartner y PwC han citado la computación neuromórfica como una tecnología emergente a observar en los próximos años [61]. Se espera que, a medida que el hardware y el software maduren, veamos procesadores neuromórficos que permitan a los dispositivos cotidianos tener inteligencia perceptual sin necesitar enormes recursos de computación. Desde autos autónomos hasta pequeños implantes médicos, cualquier escenario donde se necesite IA en tiempo real en un entorno con limitaciones de energía o tamaño podría ser candidato para soluciones neuromórficas.

Desafíos y Limitaciones

A pesar de su emocionante potencial, la computación neuromórfica enfrenta desafíos significativos en el camino hacia una adopción más amplia. Muchos de estos desafíos provienen del hecho de que los enfoques neuromórficos son radicalmente diferentes del statu quo, lo que requiere un nuevo pensamiento en hardware, software e incluso educación. Aquí están algunos de los principales obstáculos y limitaciones en 2025:

  • Madurez de la tecnología: La computación neuromórfica aún no es una tecnología madura ni de uso generalizado. El ciclo de sobreexpectación de Gartner la situaría en las primeras etapas: prometedora, pero no lista para el horario estelar [62]. Los chips neuromórficos actuales son en su mayoría prototipos de investigación o dispositivos de producción limitada. Todavía no existen estándares industriales ampliamente aceptados para el diseño de hardware neuromórfico o para los puntos de referencia de rendimiento [63]. Esto dificulta que los posibles usuarios evalúen y comparen sistemas. Como resultado, las organizaciones exploran la tecnología neuromórfica con cautela, sabiendo que aún está evolucionando y puede que no supere inmediatamente a las soluciones convencionales para todos los problemas.
  • Falta de software y herramientas: Uno de los mayores cuellos de botella es el ecosistema de software. El mundo de la computación se ha construido durante décadas en torno a las máquinas de Von Neumann: los lenguajes de programación, compiladores, sistemas operativos y la experiencia de los desarrolladores asumen una arquitectura tradicional. El hardware neuromórfico, en cambio, requiere un enfoque diferente para la programación (más sobre diseñar redes neuronales y ajustar modelos que sobre escribir código secuencial). Hasta ahora, “las herramientas adecuadas para construir software realmente no existen” para los sistemas neuromórficos, como dijo un investigador [64]. Muchos experimentos neuromórficos dependen de software personalizado o adaptaciones de marcos de redes neuronales. Se están realizando esfuerzos (por ejemplo, el marco de código abierto Lava de Intel para Loihi, o proyectos universitarios como Nengo), pero no existe una plataforma unificada y fácil de usar análoga a TensorFlow o PyTorch para redes neuronales de picos a gran escala. Esta pronunciada curva de aprendizaje limita la adopción: un desarrollador de IA típico no puede simplemente tomar un chip neuromórfico y desplegar una aplicación sin una amplia readaptación. Mejorar la pila de software, las bibliotecas y los simuladores es una tarea crítica para la comunidad.
  • Cambio de Paradigma en la Programación: Relacionado con el tema de las herramientas está un cambio de paradigma fundamental en la forma de pensar. Programar un sistema neuromórfico no es como escribir un script en Python; se parece más a diseñar y entrenar un modelo similar a un cerebro. Los desarrolladores necesitan familiaridad con conceptos de neurociencia (tasas de disparo, plasticidad sináptica) además de informática. Esto significa que hay una alta barrera de entrada. Se estima que solo unas pocas centenas de personas en todo el mundo son verdaderos expertos en computación neuromórfica hoy en día [65]. Superar esta brecha de talento es un desafío: necesitamos o bien formar a más personas en este campo interdisciplinario o crear herramientas de más alto nivel que abstraigan la complejidad. Hasta entonces, la computación neuromórfica seguirá siendo algo boutique, accesible principalmente a grupos de investigación especializados.
  • Escalabilidad de Hardware y Fabricación: Construir hardware neuromórfico que imite de manera confiable la complejidad del cerebro es extremadamente desafiante. Si bien los chips digitales como Loihi y TrueNorth han demostrado que podemos escalar a un millón de neuronas o más, alcanzar la escala cerebral (86 mil millones de neuronas en un cerebro humano) aún está muy lejos de nuestro alcance. Más importante aún, los enfoques analógicos (usando memristores, etc.) que podrían replicar mejor las sinapsis aún no están listos para producción: se necesitan nuevos materiales y procesos de fabricación para hacerlos estables y reproducibles [66]. Los dispositivos analógicos de vanguardia a menudo enfrentan problemas como variabilidad del dispositivo, deriva o resistencia limitada. Los chips neuromórficos digitales, por otro lado, aprovechan la fabricación estándar CMOS pero pueden sacrificar algo de eficiencia o densidad en comparación con los analógicos. También está el desafío de integrar los chips neuromórficos en los sistemas informáticos existentes (interfaces de comunicación, factores de forma, etc.). El chip NorthPole de IBM intenta abordar esto presentándose como una “memoria activa” para un sistema anfitrión [67], pero tales soluciones de integración aún son experimentales. En resumen, el hardware neuromórfico está en la cúspide: prometedor, pero se necesita más I+D para hacerlo robusto, escalable y rentable para la producción en masa.
  • Estandarización y Referencias: En la computación convencional, tenemos referencias bien definidas (SPEC para CPUs, MLPerf para aceleradores de IA, etc.) y métricas de rendimiento. Para los sistemas neuromórficos, aún no está claro cómo medir y comparar el rendimiento de manera justa. Si un chip ejecuta una red neuronal de picos y otro ejecuta una red neuronal estándar, ¿cómo comparamos la “precisión” o el “rendimiento” en una tarea determinada? Se están desarrollando nuevas referencias que aprovechan las fortalezas neuromórficas (como el aprendizaje continuo o el reconocimiento de patrones con restricción energética), pero hasta que la comunidad las acepte, demostrar el valor de las soluciones neuromórficas a externos es difícil [68]. Esta falta de métricas y arquitecturas estándar también significa que compartir resultados entre grupos de investigación puede ser problemático: lo que funciona en un chip puede no funcionar en otro si sus modelos de neuronas o cadenas de herramientas difieren.
  • Compatibilidad con la IA existente: Actualmente, la mayor parte de la IA mundial se ejecuta en modelos de aprendizaje profundo optimizados para GPUs y TPUs. Estos modelos utilizan aritmética de alta precisión, multiplicaciones de matrices densas, etc., que no son directamente compatibles con el hardware neuromórfico de picos. Para aprovechar la eficiencia neuromórfica, a menudo se debe convertir o volver a entrenar una red neuronal estándar en una red neuronal de picos, un proceso que puede conllevar cierta pérdida de precisión [69]. Algunas tareas pueden ver un rendimiento degradado al forzarlas al paradigma de picos. Además, ciertos algoritmos de IA (como los grandes transformadores usados en modelos de lenguaje) aún no son claramente adaptables a implementaciones de picos. Esto significa que los chips neuromórficos actualmente sobresalen en áreas de nicho (por ejemplo, visión, procesamiento de sensores, aprendizaje por refuerzo simple), pero no son una solución universal para todos los problemas de IA en la actualidad. Los investigadores están trabajando en enfoques híbridos y mejores técnicas de entrenamiento para cerrar la brecha de precisión, pero sigue siendo un desafío garantizar que un sistema neuromórfico pueda lograr la misma calidad de resultado que uno convencional para una aplicación dada.
  • Desafíos de mercado y ecosistema: Desde una perspectiva empresarial, la computación neuromórfica aún busca su “killer app” y un camino claro hacia la comercialización. Los inversores y las empresas son cautelosos porque el plazo de retorno de la tecnología es incierto. Un análisis a principios de 2025 describió la computación neuromórfica como una “innovación prometedora con duros desafíos de mercado,” señalando que, si bien el potencial es alto, la falta de aplicaciones que generen ingresos de inmediato la convierte en una apuesta arriesgada para las empresas [70]. Existe un problema de “huevo y gallina”: los fabricantes de hardware esperan la demanda para justificar la producción a escala, pero los usuarios finales esperan chips accesibles para justificar el desarrollo de aplicaciones. Sin embargo, la tendencia está creciendo, y los despliegues de nicho (como chips neuromórficos en satélites espaciales o sensores militares donde la energía es un recurso crítico) están comenzando a mostrar un valor real, lo que podría expandir gradualmente el mercado.

En resumen, la computación neuromórfica en 2025 está a la vanguardia de la investigación y la ingeniería. El campo enfrenta desafíos no triviales en el desarrollo tecnológico, las herramientas y la construcción de un ecosistema. Sin embargo, ninguno de estos desafíos es un obstáculo fundamental: se asemejan a las dificultades que enfrentaron las primeras computadoras paralelas o los primeros días de las GPU para la computación general. A medida que la comunidad aborda la estandarización, mejora el hardware y educa a más desarrolladores, podemos esperar que muchas de estas limitaciones se reduzcan en los próximos años. Una perspectiva de Nature en 2025 señaló con optimismo que, tras algunos comienzos en falso, la confluencia de avances recientes (mejores algoritmos de entrenamiento, mejoras en el diseño digital y computación en memoria) “ahora promete una adopción comercial generalizada” de la tecnología neuromórfica, siempre que resolvamos cómo programar y desplegar estos sistemas a gran escala [71]. Se está trabajando activamente en esas soluciones, y probablemente la próxima década determinará hasta dónde llegará la computación neuromórfica a partir de aquí.

Desarrollos y noticias recientes (a 2025)

Los últimos años han visto hitos significativos y un renovado interés en la computación neuromórfica, lo que indica que el campo está cobrando impulso. Aquí algunos de los desarrollos recientes hasta 2025:

  • Hala Point de Intel – Impulsando la escala neuromórfica: En abril de 2024, Intel anunció Hala Point, el sistema de computación neuromórfica más grande jamás construido [72]. Hala Point agrupa 1,152 chips Loihi 2, logrando una capacidad neuronal de aproximadamente 1.15 mil millones de neuronas (comparable al cerebro de un búho) [73]. Está instalado en los Laboratorios Nacionales Sandia y se utiliza como banco de pruebas de investigación para escalar algoritmos neuromórficos. Notablemente, Hala Point demostró la capacidad de ejecutar cargas de trabajo de IA convencionales (como redes neuronales profundas) con una eficiencia sin precedentes – alcanzando 20 cuatrillones de operaciones por segundo con más de 15 billones de operaciones por segundo por vatio en pruebas [74]. Intel afirma que esto iguala o supera el rendimiento de clústeres de GPU/CPU en esas tareas, pero con una eficiencia energética mucho mejor [75]. Lo significativo es que los sistemas neuromórficos ya no son solo modelos de juguete; están abordando tareas de IA a escalas relevantes para la industria, lo que sugiere que los enfoques neuromórficos podrían complementar o incluso competir con los aceleradores de IA actuales en el futuro. Mike Davies de Intel Labs comentó que Hala Point combina la eficiencia del deep learning con “aprendizaje novedoso inspirado en el cerebro” para explorar una IA más sostenible, y que dicha investigación podría llevar a sistemas de IA que aprendan de forma continua en lugar del actual ciclo ineficiente de entrenar y luego desplegar [76].
  • NorthPole de IBM y Avance Científico: A finales de 2023, IBM publicó detalles de su chip NorthPole en la revista Science, atrayendo considerable atención [77]. NorthPole es significativo no solo por sus especificaciones técnicas (mencionadas anteriormente), sino por mostrar un camino claro para integrar chips neuromórficos en sistemas convencionales. Desde fuera, actúa como un componente de memoria, lo que significa que podría colocarse en el bus de memoria de una computadora y funcionar con CPUs existentes [78]. Este tipo de integración es crucial para la comercialización. El artículo de Science demostró que NorthPole ejecuta modelos de IA de visión (como ResNet-50 para clasificación de imágenes y YOLO para detección de objetos) de manera dramáticamente más rápida y eficiente que una GPU NVIDIA V100, e incluso superando a la NVIDIA H100 de gama alta en eficiencia energética por aproximadamente 5× [79]. Un experto independiente, el profesor Vwani Roychowdhury de UCLA, calificó el trabajo como “una obra maestra de la ingeniería,” señalando que, dado que la tecnología neuromórfica analógica aún no está lista, el enfoque digital de NorthPole “presenta una opción a corto plazo para que la IA se despliegue cerca de donde se necesita.” [80]. En otras palabras, IBM demostró que los chips neuromórficos pueden empezar a tener impactos prácticos ahora, utilizando la tecnología de fabricación actual. Este desarrollo fue ampliamente cubierto en los medios tecnológicos y visto como un gran paso hacia llevar las ideas neuromórficas a productos reales.
  • IA Inspirada en el Cerebro para el Espacio y la Defensa: En 2022 y 2023, agencias como la NASA y el Departamento de Defensa de EE. UU. comenzaron a experimentar con procesadores neuromórficos para usos especializados. La NASA probó un chip neuromórfico (Loihi) para el procesamiento de imágenes satelitales y la navegación de naves espaciales, donde la tolerancia a la radiación y el bajo consumo de energía son críticos. La idea es que un pequeño coprocesador neuromórfico en un satélite podría analizar datos de sensores a bordo (por ejemplo, detectar características en la superficie de un planeta o anomalías en la telemetría de la nave) sin necesidad de comunicación continua con la Tierra, ahorrando ancho de banda y energía. El Laboratorio de Investigación de la Fuerza Aérea se asoció con startups (por ejemplo, BrainChip) para ver si la tecnología neuromórfica podría mapear señales complejas de sensores para aeronaves autónomas o sistemas de detección de misiles [81]. La eficiencia energética extrema y el aprendizaje en tiempo real de los sistemas neuromórficos resultan muy atractivos para sistemas militares autónomos que funcionan con batería o energía solar. Estos proyectos están mayormente en fases de prueba, pero señalan una creciente confianza en la fiabilidad del hardware neuromórfico fuera del laboratorio.
  • Productos comerciales de Edge AI: Para 2025, estamos viendo los primeros indicios de productos comerciales que incorporan tecnología neuromórfica. Por ejemplo, la IP Akida de BrainChip ha sido licenciada para su uso en módulos de sensores automotrices; un ejemplo es el uso de redes neuromórficas para analizar datos de los sensores de presión de neumáticos de un automóvil y detectar deslizamiento de neumáticos o cambios en las condiciones de la carretera en tiempo real. Otro ejemplo está en dispositivos inteligentes para el hogar: una cámara habilitada con tecnología neuromórfica que puede realizar reconocimiento de personas y control por gestos en el propio dispositivo, funcionando durante meses con una sola batería. Estos aún no son nombres conocidos, pero demuestran que la computación neuromórfica está encontrando su camino en aplicaciones de nicho y alto valor. Los analistas predicen que, a medida que el Internet de las Cosas (IoT) se expanda, la necesidad de IA pequeña y de bajo consumo explotará, y los chips neuromórficos podrían capturar una parte significativa de ese mercado si resultan fáciles de integrar. Los informes de investigación de mercado pronostican un rápido crecimiento en los ingresos de la computación neuromórfica durante la próxima década, del orden de una tasa de crecimiento anual compuesta del 25-30%, lo que podría crear un mercado de varios miles de millones de dólares para 2030 [82].
  • Colaboración global y conferencias: La comunidad neuromórfica ha estado compartiendo activamente sus avances. Conferencias como el Taller de Ingeniería Neuromórfica (Telluride) y el Neuro Inspired Computational Elements (NICE) de IEEE han reportado un aumento en la participación. En 2023, el taller de Telluride mostró perros robóticos controlados neuromórficamente, demostraciones de reconocimiento facial ejecutándose en sistemas neuromórficos de placa única y más aplicaciones de fusión de sensores neuromórficos. Además, los esfuerzos de código abierto están creciendo; por ejemplo, el código y los simuladores de la Arquitectura de Red Neuronal de Picos (SpiNNaker) están disponibles para investigadores de todo el mundo, e Intel hizo de código abierto su software Lava para Loihi a finales de 2022, invitando a la comunidad a contribuir con algoritmos y casos de uso.
  • La crisis energética de la IA y la esperanza neuromórfica: Un tema en las noticias recientes es el costo energético de la IA. Con los grandes modelos de lenguaje y los servicios de IA consumiendo cada vez más energía (algunas estimaciones sitúan el consumo eléctrico de la industria de la IA en una fracción enorme y creciente de la energía global), la computación neuromórfica suele destacarse como un posible remedio. A principios de 2025, un artículo en Medium señaló que la huella energética de la IA se está disparando y se refirió a los chips neuromórficos como “el futuro verde e inteligente de la IA”, sugiriendo que 2025 podría ser un punto de inflexión en el que la industria mire seriamente a los chips inspirados en el cerebro para controlar el consumo energético [83]. Esta narrativa ha ido ganando fuerza en el periodismo tecnológico y en conferencias de IA: esencialmente, computación neuromórfica para una IA sostenible. Los gobiernos, también, a través de iniciativas para la computación eficiente en energía, están comenzando a financiar la investigación neuromórfica con el doble objetivo de mantener el crecimiento del rendimiento de la IA y reducir los costos energéticos y de carbono.

Todos estos desarrollos pintan un panorama de un campo que avanza rápidamente en múltiples frentes: comprensión científica, logros de ingeniería y pruebas comerciales iniciales. Hay una sensación de que la computación neuromórfica está pasando de un largo período de incubación a una fase de demostración práctica. Aunque aún no se ha “popularizado”, el progreso en 2023–2025 sugiere que eso podría cambiar en los próximos años. El consenso en la comunidad es que si se superan los obstáculos restantes (especialmente el software y la escalabilidad), la tecnología neuromórfica podría ser un factor decisivo para habilitar la próxima ola de IA, una que sea más adaptativa, siempre activa y eficiente energéticamente que lo que podemos lograr con las arquitecturas existentes.

Perspectivas de expertos sobre el futuro

Para completar este panorama, es esclarecedor escuchar lo que los expertos en el campo están diciendo sobre la computación neuromórfica y su futuro. Aquí hay algunas citas y puntos de vista perspicaces de investigadores y figuras líderes de la industria:

  • Dharmendra S. Modha (IBM Fellow, Científico Jefe de Computación Inspirada en el Cerebro): “NorthPole fusiona los límites entre la computación inspirada en el cerebro y la computación optimizada para silicio, entre el cómputo y la memoria, entre el hardware y el software.” [84] Modha enfatiza que el enfoque de IBM con NorthPole está difuminando las distinciones tradicionales en el diseño de computadoras, creando una nueva clase de chip que es a la vez procesador y memoria, tanto hardware como algoritmo. Ha defendido durante mucho tiempo que la clave para alcanzar la eficiencia similar al cerebro es la co-localización de la memoria con el cómputo. En su opinión, los chips verdaderamente neuromórficos requieren repensar toda la pila, y el éxito de NorthPole al superar a las GPU es una prueba de que este enfoque no convencional funciona. Modha incluso ha sugerido que, si se escala, los sistemas neuromórficos podrían eventualmente acercarse a las capacidades de la corteza humana para ciertas tareas, todo ello usando una fracción diminuta de la energía de las supercomputadoras actuales [85].
  • Mike Davies (Director del Laboratorio de Computación Neuromórfica de Intel): “El costo computacional de los modelos de IA actuales está aumentando a tasas insostenibles… La industria necesita enfoques fundamentalmente nuevos capaces de escalar.” [86] Davies habla a menudo sobre el muro de eficiencia energética al que se enfrenta la IA. Señala que simplemente añadir más GPUs al problema no es viable a largo plazo debido a las limitaciones de energía y escalabilidad. La computación neuromórfica, argumenta, es uno de los pocos caminos para continuar el progreso. La estrategia de Intel refleja esta creencia: al invertir en investigación neuromórfica como Loihi y Hala Point, buscan descubrir nuevos algoritmos (como aprendizaje continuo, codificación dispersa, etc.) que podrían hacer que la IA futura no solo sea más rápida, sino mucho más eficiente. Davies ha destacado cómo los chips neuromórficos sobresalen en tareas como el control adaptativo y la percepción, y prevé que se integrarán en sistemas de IA más grandes – quizás un servidor de IA con algunos aceleradores neuromórficos junto a GPUs, cada uno manejando las cargas de trabajo para las que son mejores. Su cita subraya que la escalabilidad en IA requerirá cambios de paradigma, y el diseño neuromórfico es uno de esos cambios.
  • Carver Mead (Pionero de la Ingeniería Neuromórfica): (Desde una perspectiva histórica) Mead ha expresado a menudo admiración por la eficiencia de la biología. En entrevistas, ha dicho cosas como: “Cuando tienes 10¹¹ neuronas computando en paralelo, puedes hacer cosas con un joule de energía que a una computadora convencional le tomaría kilojulios o más hacer.” (parafraseado de varias charlas). La visión de Mead de los años 80 – que mezclar la física analógica con la computación podría desbloquear capacidades similares al cerebro – finalmente está dando frutos. Cree que la ingeniería neuromórfica es “la continuación natural de la Ley de Moore” [87] en cierto sentido: a medida que la miniaturización de transistores ofrece rendimientos decrecientes, debemos encontrar nuevas formas de usar grandes cantidades de transistores, y usarlos para imitar circuitos cerebrales (que priorizan la eficiencia energética sobre la precisión) es el siguiente paso lógico. Según sus comentarios recientes, Mead sigue siendo optimista de que la próxima generación de ingenieros continuará refinando estas ideas y que los principios neuromórficos impregnarán las futuras plataformas de computación (aunque Mead está retirado, su legado es enorme en cada proyecto neuromórfico).
  • Vwani Roychowdhury (Profesor de Ingeniería Eléctrica, UCLA): “Dado que los sistemas analógicos aún no han alcanzado la madurez tecnológica, este trabajo presenta una opción a corto plazo para que la IA se despliegue cerca de donde se necesita.” [88] Roychowdhury dio esta evaluación respecto al chip NorthPole de IBM. Como académico independiente no vinculado directamente a IBM o Intel, su perspectiva tiene peso: reconoce que, aunque la gran visión podrían ser los procesadores neuromórficos analógicos (que, en teoría, podrían ser aún más eficientes y parecidos al cerebro), la realidad es que esos aún no están listos. Mientras tanto, chips como NorthPole demuestran que los chips neuromórficos digitales pueden cerrar la brecha y ofrecer beneficios inmediatos para el despliegue de IA en el borde [89]. Su cita resalta una visión pragmática en la comunidad: usar lo que funciona ahora (aunque sean neuronas simuladas digitalmente) para empezar a obtener beneficios, y mantener la investigación en dispositivos analógicos más exóticos para el futuro. Es un respaldo a que la tecnología neuromórfica ya está lista para ciertas tareas hoy en día.
  • Investigadores del Laboratorio Nacional de Los Álamos: En un artículo de marzo de 2025, investigadores de IA en Los Álamos escribieron que “la computación neuromórfica, la próxima generación de IA, será más pequeña, más rápida y más eficiente que el cerebro humano.” [90] Esta afirmación audaz refleja el optimismo que algunos expertos tienen sobre el potencial final de los diseños neuromórficos. Si bien ser “más pequeño y más rápido” que el cerebro humano es una meta ambiciosa (el cerebro es una máquina extraordinariamente poderosa de 20 vatios), el punto es que la computación neuromórfica podría dar lugar a sistemas de IA que no solo se acerquen a la inteligencia humana, sino que realmente superen al cerebro en velocidad y eficiencia bruta para ciertas operaciones. El contexto de esa cita es la idea de que los cerebros, aunque asombrosos, son producto de la biología y tienen limitaciones; las máquinas inspiradas en cerebros podrían optimizar más allá de esas limitaciones (por ejemplo, comunicándose mediante señales eléctricas a distancias más cortas que las neuronas biológicas, lo que podría permitir una propagación de señales más rápida, y usando materiales que permitan frecuencias de disparo más altas, etc.). Es una visión a largo plazo, pero es revelador que investigadores serios estén considerando tales posibilidades.

Estas perspectivas en conjunto pintan un panorama de un campo que es tanto visionario como realista. Los expertos reconocen los obstáculos pero están claramente entusiasmados con la trayectoria. El tema constante es que la computación neuromórfica se considera clave para el futuro de la computación, especialmente para la IA y el aprendizaje automático. No se trata de reemplazar el cerebro ni de crear máquinas conscientes, sino de tomar inspiración de la biología para superar los límites actuales. Como resumió elocuentemente Modha, el objetivo es fusionar lo mejor de ambos mundos: la adaptabilidad y eficiencia parecidas al cerebro con las ventajas de la computación moderna en silicio [91].

Lecturas y Recursos Adicionales

Para quienes estén interesados en explorar la computación neuromórfica en mayor profundidad, aquí hay algunas fuentes y referencias confiables:

  • IBM Research – Computación Neuromórfica: El artículo introductorio de IBM “¿Qué es la computación neuromórfica?” ofrece una introducción accesible y destaca proyectos de IBM como TrueNorth y NorthPole [92][93].
  • Intel Neuromorphic Research Community: La sala de prensa y los blogs de investigación de Intel tienen actualizaciones sobre Loihi y Hala Point, incluyendo el comunicado de prensa de abril de 2024 que detalla las especificaciones y objetivos de Hala Point [94].
  • Programa DARPA SyNAPSE: El anuncio de DARPA en 2014 sobre el chip IBM TrueNorth ofrece información sobre las motivaciones (eficiencia energética) y la arquitectura del chip [95][96].
  • IEEE Spectrum: El artículo de octubre de 2023 “IBM presenta un chip inspirado en el cerebro para una IA rápida y eficiente” de Charles Q. Choi examina en detalle el chip NorthPole e incluye comentarios de expertos[97].
  • Nature y Nature Communications: Para una perspectiva más académica, Nature Communications (abril de 2025) publicó “El camino hacia el éxito comercial de las tecnologías neuromórficas” [98], que analiza el camino a seguir y los desafíos pendientes. Science (octubre de 2023) tiene el artículo técnico sobre NorthPole para quienes deseen profundizar en los detalles.
  • BuiltIn y artículos de Medium: El sitio tecnológico BuiltIn tiene una introducción completa sobre computación neuromórfica, incluyendo ventajas y desafíos en términos sencillos [99]. Además, algunos escritores de Medium han escrito artículos (por ejemplo, sobre por qué empresas como IBM e Intel están invirtiendo en neuromórfica) para una perspectiva dirigida al público general [100].

La computación neuromórfica es un campo de rápido avance en la intersección de la informática, la electrónica y la neurociencia. Representa una audaz reinvención de cómo construimos máquinas que “piensan”. Como hemos explorado, el viaje del concepto a la realidad ha tomado décadas, pero el progreso es innegable y se está acelerando. Si las tendencias actuales continúan, los chips inspirados en el cerebro podrían pronto complementar las CPU y GPU en nuestros dispositivos, haciendo que la IA sea ubicua y ultra eficiente. En palabras de un equipo de investigación, la tecnología neuromórfica está lista para ser “la próxima generación de IA” [101] – una evolución que podría cambiar fundamentalmente la computación tal como la conocemos. Es un campo que vale la pena observar en los próximos años.

Fuentes:

  • IBM Research, “What is Neuromorphic Computing?” (2024 )[102]
  • DARPA News, “SyNAPSE Program Develops Advanced Brain-Inspired Chip” (Ago 2014) [103]
  • Intel Newsroom, “Intel Builds World’s Largest Neuromorphic System (Hala Point)” (17 Abr, 2024) [104]
  • IEEE Spectrum, “IBM Debuts Brain-Inspired Chip For Speedy, Efficient AI” (23 Oct, 2023) [105]
  • BuiltIn, “What Is Neuromorphic Computing?” (2023) [106]
  • Nature Communications, “El camino hacia el éxito comercial de las tecnologías neuromórficas” (15 de abril de 2025) [107]
  • Wikipedia, “Computación neuromórfica” (consultado en 2025) [108]
Neuromorphic Computing Is a Big Deal for A.I., But What Is It?

References

1. www.ibm.com, 2. en.wikipedia.org, 3. www.ibm.com, 4. www.ibm.com, 5. pawarsaurav842.medium.com, 6. pawarsaurav842.medium.com, 7. spectrum.ieee.org, 8. newsroom.intel.com, 9. spectrum.ieee.org, 10. www.nature.com, 11. www.colocationamerica.com, 12. www.ibm.com, 13. www.darpa.mil, 14. www.darpa.mil, 15. www.darpa.mil, 16. pawarsaurav842.medium.com, 17. pawarsaurav842.medium.com, 18. pawarsaurav842.medium.com, 19. www.ibm.com, 20. spectrum.ieee.org, 21. spectrum.ieee.org, 22. research.ibm.com, 23. newsroom.intel.com, 24. pawarsaurav842.medium.com, 25. www.ibm.com, 26. www.ibm.com, 27. www.ibm.com, 28. spectrum.ieee.org, 29. www.darpa.mil, 30. newsroom.intel.com, 31. spectrum.ieee.org, 32. www.colocationamerica.com, 33. spectrum.ieee.org, 34. medium.com, 35. medium.com, 36. newsroom.intel.com, 37. newsroom.intel.com, 38. spectrum.ieee.org, 39. spectrum.ieee.org, 40. newsroom.intel.com, 41. newsroom.intel.com, 42. newsroom.intel.com, 43. newsroom.intel.com, 44. medium.com, 45. brainchip.com, 46. www.embedded.com, 47. www.design-reuse.com, 48. pawarsaurav842.medium.com, 49. www.ibm.com, 50. www.ibm.com, 51. www.ibm.com, 52. www.ibm.com, 53. www.ibm.com, 54. www.ibm.com, 55. builtin.com, 56. medium.com, 57. pawarsaurav842.medium.com, 58. www.ibm.com, 59. www.colocationamerica.com, 60. builtin.com, 61. www.ibm.com, 62. www.ibm.com, 63. builtin.com, 64. builtin.com, 65. builtin.com, 66. spectrum.ieee.org, 67. spectrum.ieee.org, 68. builtin.com, 69. builtin.com, 70. omdia.tech.informa.com, 71. www.nature.com, 72. newsroom.intel.com, 73. newsroom.intel.com, 74. newsroom.intel.com, 75. newsroom.intel.com, 76. newsroom.intel.com, 77. spectrum.ieee.org, 78. spectrum.ieee.org, 79. spectrum.ieee.org, 80. spectrum.ieee.org, 81. www.embedded.com, 82. builtin.com, 83. medium.com, 84. spectrum.ieee.org, 85. spectrum.ieee.org, 86. newsroom.intel.com, 87. www.darpa.mil, 88. spectrum.ieee.org, 89. spectrum.ieee.org, 90. en.wikipedia.org, 91. spectrum.ieee.org, 92. www.ibm.com, 93. www.ibm.com, 94. newsroom.intel.com, 95. www.darpa.mil, 96. www.darpa.mil, 97. spectrum.ieee.org, 98. www.nature.com, 99. builtin.com, 100. medium.com, 101. en.wikipedia.org, 102. www.ibm.com, 103. www.darpa.mil, 104. newsroom.intel.com, 105. spectrum.ieee.org, 106. builtin.com, 107. www.nature.com, 108. en.wikipedia.org

Technology News

  • Critics say AI is a scapegoat for layoffs as firms cut staff
    October 19, 2025, 1:40 AM EDT. Companies across the US and Europe are citing artificial intelligence as a driver of layoffs, with firms like Salesforce, Accenture, Lufthansa, Klarna, and Duolingo signaling reduced headcount. Critics, including Fabian Stephany of the Oxford Internet Institute, say AI is being used as a scapegoat for broader business moves, and that some cuts reflect a post-pandemic overhiring or a market clearance rather than pure efficiency gains. The debate underscores whether AI adoption is a genuine productivity boost or an easy excuse to justify workforce reductions, as companies position themselves at the AI frontier while real reasons may lie elsewhere.
  • Global Industrial Rugged Smartphone Market Poised for 8.1% CAGR to 2031 with an $8.2B Valuation
    October 19, 2025, 1:08 AM EDT. Global demand for industrial rugged smartphones is expanding as harsh-work environments demand durable, secure devices. The market is forecast to reach about USD 8.2 billion by 2031 with a CAGR of 8.1% from 2025-2031. Preliminary figures show the market near USD 4.5 billion in 2024, underscoring steady expansion. Key drivers include enhanced 5G connectivity, AI-enabled features, and stronger enterprise security, enabling real-time communication, field mobility, and analytics across construction, manufacturing, logistics, and field services. Leading vendors such as Zebra Technologies, Panasonic, Honeywell, CAT Phones, Samsung, Sonim, Getac, Kyocera and Motorola are expanding portfolios to serve cross-industry needs. Growth will be supported by innovations in durability, battery life, processing power, and seamless integration with enterprise software and IoT ecosystems.
  • Educator Voice: Generative AI has no place in my classroom - a teacher's alarm
    October 19, 2025, 1:04 AM EDT. David Cutler, a teacher, argues that while AI can assist learning, ChatGPT-5 threatens the integrity of student writing. After hearing the system mimic a student's unique voice, he notes how easily past essays can be replicated with accurate citations, and how AI erodes effort, patience, and critical thinking. He compares AI's value to calculators: calculators automate computation, but AI risks hollowing out the process of crafting ideas, supporting arguments, and discovering insights during drafting. The piece frames the debate around depth vs. efficiency, stressing that genuine writing grows from struggle, revision, and the development of voice, not from shortcuts. Cutler casts AI as a dangerous tool in writing and critical thinking pedagogy, insisting teachers must defend authentic learning rather than embrace effortless AI-generated work.
  • Preview on iPad and iPhone: Scan Documents with Your Mobile Device (Mac Life, Oct 16, 2025)
    October 19, 2025, 1:02 AM EDT. In this issue, Mac Life Magazine shows how to scan documents with an iPad or iPhone using built-in tools and third-party apps. It revisits the classic Microsoft Lens from the Summer 2018 feature and notes that the free scanning tool is being retired. The piece highlights practical tips for capturing clean scans, organizing files, and exporting to formats like PDF or Word. Readers get quick-start steps, recommended apps, and optimization tips for lighting, framing, and document edges. Whether you're at home or on the go, your mobile device doubles as a powerful scanner, with privacy and cloud-sync options to keep documents accessible across devices.
  • Frore Systems LiquidJet: 3D Jet-Channel Coldplates for 1400W NVIDIA GB300 GPUs, Ready for Rubin
    October 19, 2025, 1:00 AM EDT. Frore Systems unveils LiquidJet, a liquid-cooling platform using precision-engineered 3D short-loop jet channels to replace traditional 2D microchannel coldplates. Built with semiconductor manufacturing techniques, LiquidJet is tailored for high-power GPUs and today cools NVIDIA's new Blackwell Ultra GB300 with a 1400W TDP, outperforming legacy coldplates on hotspot power density, KW/lpm, and pressure drop. The design scales with next-gen GPUs like NVIDIA Rubin, Rubin Ultra, and Feynman's 4000W class chips, and supports custom hyperscaler ASICs. Benefits include highly customizable cooling maps that align with chip power layouts, simpler drop-in upgrades, cooler GPUs, higher AI tokens/second, lower TCO, and improved PUE. In short, LiquidJet evolves as fast as the chips it cools, enabling more efficient AI data centers.

Don't Miss