Leer la mente es uno de los grandes reto de la tecnología. Conocer de primera mano los pensamientos de otra persona es algo que parece territorio de la ciencia ficción. Sin embargo, con la cada vez más avanzada inteligencia artificial, el sueño (o la pesadilla) cada vez está más cerca de cumplirse.
Uno de los últimos avances corre a cargo de un grupo de científicos del prestigioso Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés). Su propuesta son una especie de auriculares que captan las señales verbales de nuestro cerebro y, gracias a una serie de técnicas de inteligencia artificial, las traduce en palabras sin que abramos la boca. Un adelanto que podría servir al usuario para comunicarse sin mover un dedo y de forma totalmente silenciosa. Solo tendría que pensar las frases y la máquina, previamente entrenada, sabría lo que tiene que hacer.
Si bien es cierto que, a día de hoy, las máquinas aún no pueden saber lo que pensamos, sentimos o deseamos, sino solo captarlo e interpretarlo, en los últimos años los expertos en inteligencia artificial han conseguido ser cada vez más precisos. Así, un reciente estudio de la Universidad de Kioto ha demostrado que también es posible representar las imágenes que se cruzan por nuestra mente sin que la máquina siquiera las haya visto antes.
Cómo se lee la mente
Saber lo que ocurre en nuestro cerebro no es fácil. Los científicos aún se afanan por descubrir qué ocurre en nuestra cabeza ante determinadas situaciones. Sin embargo, en los últimos años, el progreso de las técnicas de neuroimagen ha permitido ver cómo actúan determinadas áreas del encéfalo cuando realizamos ciertas funciones.
Una de las técnicas más usadas por los científicos ha sido la resonancia magnética funcional (también conocida por sus siglas en inglés, fMRI). Esta técnica permite medir los cambios en el flujo sanguíneo y comprobar qué zonas del cerebro, ante determinadas acciones, presentan una mayor actividad.
Lo siguiente sería interpretar dicha actividad. Es ahí donde entra en juego la inteligencia artificial. De eso habrán de encargarse una serie de algoritmos que permitirán que las máquinas, que ya han visto como actúa nuestro cerebro ante determinadas situaciones, sean capaces de representar imágenes o frases según lo aprendido. Combinando los hallazgos de ambas disciplinas, la neurociencia y la inteligencia artificial, es posible saber algo más sobre lo que pasa por nuestras mentes.
Dictar solo pensando
Con este mecanismo de captación e interpretación funcionan los auriculares AlterEgo creados por el MIT. Se colocan alrededor de nuestra oreja y se adhieren al lateral de la mandíbula hasta llegar hasta la barbilla. Así, cuatro electrodos se conectan a la piel y captan las sutiles señales neuromusculares que se activan cuando una persona habla con su ‘yo’ interno.
El resto del trabajo es para la inteligencia artificial del dispositivo, que se encarga de unir las señales con palabras previamente aprendidas y de transmitirlas a un ordenador. De este modo, todas las frases que se crucen por tu mente podrán salir de ella sin más esfuerzo que el de pensarlas.
Por si fuera poco, el ordenador puede responder a través del dispositivo usando su altavoz de conducción ósea, que lleva el sonido hasta el oído a través de ondas, sin necesidad de insertar el auricular. Así toda la comunicación será en silencio y, por ejemplo, se podrá aplicar a los asistentes por voz como Alexa o Siri cuando estemos en lugares públicos para que nadie escuche nuestras interacciones.
Por el momento, este dispositivo funciona con acciones sencillas como mover y seleccionar contenido, reconocer números o jugar al ajedrez. Sin embargo, los investigadores siguen trabajando en su sistema de recopilación de datos para mejorar el reconocimiento y ampliar el número de palabras que AlterEgo es capaz de detectar.
Para los expertos, esta tecnología tiene un gran potencial que no solo se limita al ocio para el usuario común, sino que también podría aplicarse en entornos de trabajo con excesivo ruido, como fábricas o almacenes, y durante acciones militares donde las condiciones para hablar no son las más apropiadas.
Interpretando la creatividad
Como hemos visto, reproducir las imágenes de nuestra mente se basa, en gran parte, en el entrenamiento previo de las máquinas y sus algoritmos. Para ello, una de las técnicas más avanzadas es el uso de redes neuronales profundas, un método de aprendizaje en múltiples capas que permite trabajar con un conjunto mayor de datos y hacer innumerables asociaciones entre ellos.
Es la misma técnica que han utilizado los científicos japoneses para visualizar imágenes de nuestra mente. Para ello, han creado un nuevo método de reconstrucción de imágenes que, tras analizar la actividad cerebral mediante fMRI, permite a la máquina reproducirlas de manera más o menos fidedigna.
Aunque no es la primera vez que se consigue, la diferencia entre este y los demás métodos que se han probado hasta la fecha es que permite ir más allá de replicar un puñado de píxeles y formas básicas. En este caso, la inteligencia artificial es capaz de interpretar y replicar imágenes con varios colores y con estructuras más complejas.
A los participantes en el estudio se les mostraban 25 imágenes diferentes, desde personas o animales hasta formas geométricas o letras del abecedario. En algunos casos se registraba su actividad cerebral mediante fMRI directamente mientras las estaban contemplando; en otros, se hacía posteriormente, pidiéndoles que pensaran en ellas.
Después, los registros se pasaban a la máquina para que interpretara las ondas cerebrales y ofreciera su mejor representación de lo que había pasado por la mente de los voluntarios. Algunos resultados sorprenden por su semejanza.
Sin duda, se trata de un gran paso que nos acerca más a un futuro en el que, gracias la inteligencia artificial y con solo pensarlo, podremos comunicarnos con las máquinas de todas las maneras posibles.
-------------------------
Las imágenes son propiedad, por orden de aparición, de Lorrie Lejeune/MIT y Wikimedia