Ya podemos usar nuestras mentes para hablar con máquinas

Se define como BCI –por sus siglas en inglés- a un sistema que permite establecer una conexión directa entre el cerebro y las máquinas. El brain-computer interface (BCI) o interfaz cerebro ordenador recoge e interpreta las señales que emite el cerebro humano. Luego, las transmite a una máquina que está programada para ejecutar comandos asociados a dichas señales. La aplicación más directa de esta tecnología se centra en la sanidad, y, más en concreto, en los ámbitos de la rehabilitación y de la sustitución motora. Sin embargo, las posibilidades que ofrece en distintos campos son inmensas.

La actividad del cerebro humano se basa en las neuronas. Cuando pensamos, sentimos o nos movemos, las neuronas emiten señales eléctricas. A través de la electroencefalografía (EEG) podemos recoger esa actividad cerebral, amplificarla y enviarla a un algoritmo de inteligencia artificial. Éste se encarga de interpretarla traducirla a una acción, como, por ejemplo, mover un brazo mecánico.

En realidad, este planteamiento tan de ciencia ficción no es sino una evolución del interfaz hombre máquina. Los primeros ordenadores eran operados con tarjetas perforadas. Luego, llegaron los teclados y los complejos lenguajes de programación, todavía cercanos al lenguaje que utilizan las computadoras. La informática realmente acabó por extenderse a todo el mundo gracias a los interfaces gráficos, especialmente Windows. Más adelante, llegaron las pantallas táctiles, especialmente de los teléfonos inteligentes. Recientemente, llegaron elementos de domótica que, como los altavoces domésticos, entienden el habla humana y son capaces de respondernos utilizando la palabra. Sin embargo, todo parece indicar que, en un futuro cercano, el interfaz que utilizaremos para controlar los diversos aparatos digitales a nuestra disposición será el propio cerebro humano.

Los inventos que permiten este avance de la relación entre humanos y máquinas

En junio de 2019 llegaba la noticia de que investigadores de Carnegie Mellon University habían desarrollado el primer brazo robótico controlado por la mente basado en tecnología no invasiva. La novedad es que se trata de la primera experiencia exitosa al respecto que no ha requerido implantes en el cerebro, y, por tanto, abre un nuevo espectro de posibilidades para pacientes con limitaciones motoras, excluyendo el riesgo que implica para la salud una intervención quirúrgica, además del elevado coste que lleva a asociada.

En el otro extremo se encuentra la iniciativa puesta en marcha por la empresa Neuralink, creada por el fundador de Tesla, Elon Musk, que plantea desarrollar un “lazo neural” (neural laze), es decir, una malla de electrodos insertada bajo el cráneo capaz de monitorizar las funciones del cerebro. En concreto, hablan de crear un interfaz cerebro máquinas (BMI) para restaurar las funciones motoras y sensoriales, y para tratar desórdenes neurológicos. Neuralink trabaja en un sistema BMI de banda ancha y escalable, capaz de superar las limitaciones que presentan otros interfaces clínicos anteriores.

El prototipo de Musk inserta con absoluta precisión en el cerebro, a través de un robot neurocirujano, racimos de diminutos y flexibles electrodos -hasta 3 072 de ellos-, que constituyen canales de información. El objetivo a largo plazo consiste en llegar a construir una “capa de superinteligencia digital” que conecte a los humanos con la inteligencia artificial.

1 comentario en “Ya podemos usar nuestras mentes para hablar con máquinas”

  1. Pingback: Cinco ejercicios fáciles de gimnasia mental para que la pandemia no te pase factura

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio