Este blog está dedicado a las interfaces cerebro-computadora,que diferencian entre los distintos pensamientos y toman la información necesaria de la actividad neuronal para emplearla en campos tan bellos como el de ayudar a las personas con ciertas limitaciones, algunos tan demandados como el de los videojuegos, otros implicados en la domótica del hogar o de àmbitos que algunos pueden relacionar mas con la telequinesia, como mover una silla de ruedas con la mente. ¡Es hora de relajarse y pensar!
Una noticia de hace algún tiempo, pero capaz de marcar el desarrollo de los BCI:
El Pentágono quiere controlar remotamente la mente de los soldados, desde las áreas que regulan el estado de alerta y la cognición al tratamiento del dolor y el bienestar psiquiátricos. Y los científicos quieren hacerlo desde fuera - con un aparato instalado en el interior del casco de las tropas usando ultrasonidos.
El dispositivo de ultrasonidos es capaz de estimular muchos miles de circuitos neuronales desde el exterior, además de centrarse en zonas del cerebro extremadamente específicas, de un tamaño de entre dos o tres milímetros.
El prototipo desarrollado presenta un tamaño lo suficientemente pequeño como para que pueda ser colocado en el interior de un casco de militar típico.
Para acceder a las partes profundas del cerebro con una resolución espacial extremadamente específica han sido logradas gracias al ultrasonido.
Utilizando un microcontrolador, el ultrasonido podría estimular distintas partes del cerebro para aumentar la alerta y las capacidades cognitivas de los soldados, pero también para aliviar el estrés o el dolor que éstos puedan estar sufriendo.
Asimismo, este sistema podría proteger a los militares de sufrir traumas cerebrales. En este sentido, lo peor de una lesión cerebral no es la lesión inicial sino el daño metabólico y la hinchazón que se producen horas después del trauma. Si se pudiera aplicar, en el momento inicial, una intervención inmediata dirigida y remota (con el ultrasonido), se podría frenar el daño que a largo plazo ocasionan los traumas en el cerebro.
Como se puede ver esta es otra forma de actuar sobre el cerebro gracias a una interfaz que lo conecta con el exterior en el momento necesario.
La Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA) invierte mucho dinero en proyectos de investigación que mejoren la efectividad de las tropas y entre estos se hallan los de neurociencia.
Dos métodos de Interfaz Cerebro Máquina (BCI) usados hasta la fecha no resultan adecuados para su propósito. De un lado la estimulación cerebral profunda (DBS) que se usa experimentalmente en la enfermedad de Parkinson requiere la implantación de electrodos intracraneales. Por otro lado, la estimulación transcraneal magnética (TMS),utilizada para tratar depresiones resistentes a los medicamentos y otros trastornos presenta una baja resolución espacial, de aproximadamente un centímetro, por lo que no puede estimular los circuitos neuronales más profundos, donde residen muchos de estos trastornos.
El uso de ultrasonidos en el presente proyecto ha demostrado que la resolución espacial es cinco veces mayor que la TMS y llega a áreas profundas del cerebro.
El proyecto investiga también otros métodos de estimulación y la posibilidad de que artilugios reducidos quepan en el casco de los soldados.
El campo de la guerra ha proporcionado a lo largo de la historia un impulso tecnólogico en las naciones en las que se tiene un alto índice de inversión de investigación, desarrollo e innovación así como una importante parte de su presupuesto destinado a la guerra. Por tanto esto podría proporcionar avances en otros àmbitos de las BCI debido a la doble funcionalidad que se suele producir en estos dispositivos militares,a pesar de que concentraría estos en los países más desarrollados y con más recursos económicos, y el resto dependerían de ellos para su uso.
Como se puede ver los BCI podrían cambiar incluso el desarrollo de la guerra moderna usando estos para mejorar las respuestas de tropas a ciertas órdenes, situaciones y palabras, así un soldado solo tendría que pensar en un comando para que de inmediato se difundiese a sus tropas. Pero también hay importantes implicaciones éticas que se deben considerar en las que influyen lavado del cerebro y control mental. Pudiendo haber una relación complicada entre los investigadores y los organismos de defensa nacional que los financian.
Existen en el mercado multitud de dispositivos basados en tecnología BCI (Interfaz cerebro computador), adicionalmente y desde hace unos años, hay una gran cantidad de ellos que se usan en el ámbito del entretenimiento. Sin embargo, estos productos tienen una importante barrera de entrada en el mercado y es que sus usuarios no son conscientes sobre cómo los dispositivos responden a sus procesos cerebrales, es decir, no hay una causa-efecto clara. El dispositivo de entretenimiento, mediante la extracción de diferentes características de la actividad cerebral del usuario (ondas alpha, diferencia de hemisferios, P300, etc.), realiza diferentes acciones con el objetivo de entretener y de divulgar la tecnología BCI, solventando las dificultades que mantienen otros dispositivos al establecer una relación causa-efecto.
La empresa australiana Emotiv Systems en el 2008 dio a conocer el Emotiv EPOC un neuro-auricular (neuroheadset) que permite a los jugadores controlar con sus pensamientos, emociones y expresiones.
En el siguiente video se puede ver como el jugador puede ir hacia atrás o avanzar sólo con el pensamiento, también se muestran mapas de la actividad cerebral y se ve como activar las distintas señales cerebrales para que el software informático lo pueda reconocer posteriormente en el videojuego y relacionar en la activación la subida y bajada de un cubo con el movimiento de avance y retroceso en la aplicacíón. Como se puede comprobar no es del todo sencillo ya que se necesita un control y una concentración mental importante, y ya que cada persona tiene un funcionamiento cerebral distinto, lo debemos activar para poder empezar a jugar.
El dispositivo tienen forma de casco y esta lleno de sensores que registran las ondas cerebrales y las relacionan con órdenes de acciones concretas dentro de la pantalla. Esto nos abre un nuevo y revolucionario futuro en el rubro de los videojuegos y películas ya que nos permitirá, no sólo como la Wii de Nintendo controlar los movimientos del cuerpo, sino como ya hemos dicho, controlar ahora a los personajes con el pensamiento.
Este casco que lee las señales cerebrales para transmitirlas posteriormente a un centro de análisis sería:
En el reino unido se ha lanzado el Sistema Myndplay que permite al espectador controlar momentos cruciales de una película utilizando sólo el poder de las emociones. Este sistema utiliza un dispositivo que el usuario coloca alrededor de su cabeza para leer las ondas del cerebro asociadas a los diferentes estados de ánimo y, de acuerdo a éstas, desarrolla la historia en diferentes direcciones y hacia varios finales alternativos.
De acuerdo a cómo se sienta el espectador la cinta puede tener un final positivo o negativo para el protagonista, feliz o trágico según los niveles de concentración o relajación mental durante momentos coyunturales del relato fílmico.
Los sensores conectados al dispositivo funcionan al estilo de un electroencefalógrafo que mide los patrones de la actividad eléctrica en el cerebro. Las interacciones de miles de millones de neuronas en el cerebro humano generan pequeñas señales eléctricas.
Nuestro estado de ánimo o diferentes tipos de pensamientos crean patrones específicos que pueden ser detectados por los sensores e interpretados mediante un programa que afecta el resultado en la pantalla. Myndplay le permite así al espectador convertirse en el protagonista de la película y decidir quien vive, quien muere, si el malo o el bueno gana, si el chico se queda con la chica, si el mendigo resulta ser un príncipe, si la madre encuentra a su hijo perdido. Según los representantes de Myndplay, la experiencia es una combinación entre ver una película y jugar un juego de video.
El detector de ondas cerebrales que se utiliza en el sistema interactivo fue desarrollado por una empresa en California, Estados Unidos, que lo destinó principalmente a aplicaciones para juegos y programas educacionales. El aparato cuesta unos US$110. Myndplay, por su parte, ha creado varias películas interactivas que se pueden comprar y descargar por internet por un precio que oscila entre US$1,50 y US$4,50. Sin embargo, el emotiv EPOC tiene un precio de USD$299. Con estos precios habría mucha gente dispuesta a controlar con la mente aplicaciones lúdicas.
Por ahora hay dos filmes cortos disponibles para ser vistos por computador: una película de horror, en la que el usuario hace el papel de un exorcista que lidia con espíritus malvados y la otra es una cinta de pistoleros en la que el protagonista tiene que mantener la calma para evitar complicaciones al enfrentar el hampa londinense.
Queda por ver, sin embargo, si el sistema tendría un potencial comercial con los grandes estudios y productores de cine que tendrían que filmar diferentes versiones alternativas para que puedan ser proyectadas calculando los deseos, o emociones, de los espectadores. También cabe preguntar si un libretista quisiera cambiar el final de su guión.
El uso de las BCI en entretenimiento puede tener importantes ventajas economicas y gracias a su auge en este ámbito podría originar un mayor desarrollo para el empleo de los BCI en ayudar a personas que por problemas médicos no pueden realizar actividades que para el resto de las personas son cotidianas.
Toyota Motor Corp. desarrolla una silla de ruedas que los usuarios pueden mover y dirigir físicamente sin mover un músculo. Un programa de ordenador analiza las señales y transmite los comandos correspondientes a la silla de ruedas, el usuario mueve hacia adelante, izquierda o derecha casi al instante. El sistema de Toyota es desarrollado en colaboración con investigadores de Japón, está entre el más rápido del mundo en el análisis de las ondas cerebrales, pues esta nueva tecnología requiere de sólo 125 milisegundos o 125 milésimas de segundo. Honda también está desarrollando en la actualidad la tecnología a través de la cual una persona puede manipular mecanismos mediante las ondas cerebrales, por lo que parece que los coches de manos libres están cerca a ser una realidad.
Como se puede ver en este artículo, al contrario que en el de la semana pasada que trataba del empleo de los BCI para compensar funciones naturales, los BCI también se pueden emplear para los casos en que no es posible llevar a cabo estas compensaciones, por ejemplo, el control con la mente de una silla de ruedas o de un robot de asistencia personal. Estos no potencian las funciones naturales del individuo sino que tratan de ejecutarlas por medios alternativos. Así, en lo que se refiere a movilidad, numerosos grupos de investigación trabajan sobre una plataforma como es la silla de ruedas, que constituye hoy un paradigma con muchos aspectos comunes, y otros bien distintos, con el mundo de la robótica móvil. Efectivamente estos sistemas incorporan detectores de obstáculos y sensores (US, IR, láser, cámaras) para elaborar mapas, elementos de autolocalización, control de trayectorias y estrategias de navegación. Dentro de este apartado se incluyen los interfaces persona-máquina alternativos con eventual control por movimientos de ojos, cabeza o con determinadas expresiones faciales. Pero más en concreto este proyecto emplea directamente las señales cerebrales para así destinarlo a personas con patologías que “derivan en la pérdida total del control de todos los músculos de su cuerpo” (como por ejemplo la esclerosis amiotrófica lateral) dejando como única posibilidad de comunicación con el exterior su propio pensamiento. El funcionamiento de la aplicación consiste en que el usuario tiene una pantalla sobre la que se muestra una reconstrucción tridimensional del entorno realizada por el sistema de inteligencia artificial de la silla robótica. En el de la teleoperación del robot, el usuario está tumbado sobre una cama y observa en la pantalla una secuencia de vídeo captada por el robot. “Sobre la base de estas representaciones visuales, el usuario se concentra en una zona del espacio, que genera unos patrones de actividad cerebral que son registrados por un sistema de electroencefalografía”. La señal eléctrica es filtrada, procesada y por medio de un sofisticado sistema de aprendizaje y reconocimiento de patrones se obtiene la zona del espacio en la que el usuario está pensando. A continuación, esta zona se transfiere a la tecnología de navegación a bordo de la silla o del robot, que se encarga de generar de forma autónoma el movimiento hasta esa posición del espacio, “mientras se evitan las colisiones con los obstáculos estáticos o dinámicos detectados por su sensor de proximidad láser”. Para ello se emplea una técnica no invasiva de adquisición de señales: la electroencefalografía. Está basada en la colocación de un gorro y determinados electrodos en el cuero cabelludo del usuario “para obtener la actividad eléctrica”. Pero como se dijo anteriormente este sistema sería mucho más efectivo si se emplease la técnica invasiva para registrar la actividad eléctrica cerebral de la persona.
Un ejemplo significativo, es el brillante astrónomo Stephen Hawking, quien a pesar de padecer esclerosis lateral amiotrófica puede moverse libremente utilizando una silla con una tecnología parecida a la mencionada anteriormente, esta funciona con movimientos de los ojos, y le ha permitido seguir trabajando en sus importantes y admirables trabajos sobre el espacio. Por lo que el desarrollo en este ámbito debe seguir creciendo, así todas las personas que lo necesiten se podrían servir de la tecnología para seguir realizando lo que más les gusta y no se les complique la vida más que por ejemplo con problemas astronómicos y no con limitaciones físicas.
La automática y la robótica están posibilitando la realización de tareas en modo asistido con ayuda de dispositivos auxiliares avanzados, incidiendo especialmente en el apoyo a las funciones biomecánicas personales realizadas mediante las extremidades. superiores e inferiores, esto es, la manipulación y la movilidad.
De estos sistemas robóticos, un primer grupo se destina a compensar estas funciones naturales, bien reforzando los miembros debilitados, mediante ortesis o exoesqueletos, o bien remplazando miembros amputados con el uso de prótesis. Un segundo grupo lo forman los sistemas alternativos especificados para los casos en los que no es posible llevar a cabo estas compensaciones (por ejemplo sillas de ruedas avanzadas) y, finalmente, un tercer y un cuarto grupo se orientan a los procesos de restauración de las facultades naturales mediante robots y exoesqueletos de rehabilitación. En la siguiente noticia se va a tratar el primer grupo:
Nuevas interfaces cerebro-máquina que se aprovechan de la plasticidad del cerebro puede permitir a la gente para controlar la prótesis de forma natural
Imagine una pieza de tecnología que le permiten controlar un aparato con sólo pensar en ello. Mucha gente, resulta que sólo han soñado con este sistema, que durante décadas ha disparado la imaginación de los científicos, ingenieros, y los autores de ciencia ficción. Es fácil ver por qué: Al transformar el pensamiento en acción, una interfaz cerebro-máquina podía permitir que personas paralizadas dispositivos de control tales como sillas de ruedas, prótesis o equipos. Más lejos en el futuro, en el ámbito de escritores de ciencia ficción, es posible imaginar cosas verdaderamente extraordinarias, como los implantes cerebrales que permitan a las personas para aumentar sus funciones sensoriales, motoras y capacidades cognitivas.
Los implantes cerebrales se refieren a la otra forma de registrar la actividad cerebral de las personas que es mediante técnicas invasivas, que al contrario que en las no invasivas que describí en el artículo anterior, la medición se realiza directamente desde el cerebro del usuario, con lo que es necesario realizar una intervención quirúrgica. El sensor puede penetrar el córtex cerebral de forma que mide la actividad eléctrica de neuronas individuales, o bien, puede colocarse en la superfície del cortex (La corteza cerebral es el manto de tejido nervioso que cubre la superficie de los hemisferios cerebrales, alcanzando su máximo desarrollo en los primates. Es aquí donde ocurre la percepción, la imaginación, el pensamiento, el juicio y la decisión) para medir la actividad eléctrica de grupos de neuronas. La señal obtenida es muy nítida como consecuencia de tomar las medidas directamente desde el cerebro aunque debido a los riesgos que supone la intervención y también a consideraciones éticas, la mayor parte de las investigaciones con aplicaciones en rehabilitación se realizan con animales (como en monos o ratas). La bio-compatibilidad, la fiabilidad del sistema de registro utilizado por las sondas disponibles en la actualidad también se ve comprometida por la presión continua de una rutina diaria que incluye los cables externos y de la conexión y desconexión de la cabeza externa-etapas. Estas operaciones conllevan un riesgo de causar daño a los tejidos, sangrado e infección del cerebro.
Esa fusión de la mente y la máquina de repente parecía un poco menos descabellada en 1999, cuando John Chapin, Miguel Nicolelis y sus colegas en la Escuela de Medicina de la MCP Hahnemann, en Filadelfia, y la Universidad de Duke, en Durham, Carolina del Norte, informó que las ratas en su laboratorio había controlado un simple dispositivo robótico con la actividad del cerebro solamente . Al principio, cuando los animales tenían sed, que tuvieron que utilizar sus patas para presionar una palanca, por lo tanto la activación de un brazo robótico que llevó a una paja cerca de la boca. Pero después de recibir un implante de cerebro que registra e interpreta la actividad en las cortezas de sus motores, los animales sólo podía pensar en presionar la palanca y el brazo robótico de inmediato les daría un sorbo de agua.
De repente, una práctica interfaz máquina-cerebro, o IMC , parecía posible. Las implicaciones son enormes para las personas que, debido a la parálisis causada por la médula espinal o daño cerebral, les resulta difícil o imposible de mover sus extremidades superiores o inferiores. Sólo en los Estados Unidos, más de 5,5 millones de personas padecen estas formas de parálisis, de acuerdo con el Christopher y Dana Reeve Foundation .
A partir del 2000, los investigadores comenzaron a revelar una prueba de concepto de sistemas que demostraron cómo las ratas, monos y los seres humanos podían controlar los cursores de ordenador y las prótesis robóticas en tiempo real utilizando las señales del cerebro. Los sistemas de índice de masa corporal también han revelado nuevas formas de estudiar cómo el cerebro aprende y se adapta, que a su vez han ayudado a mejorar el diseño de índice de masa corporal.
Un IMC de hoy diseñada para los estudios experimentales y clínicos se puede traducir en bruto en señales neuronales en comandos de motor que reproducen el brazo de alcanzar y agarrar la mano los movimientos en actuadores artificial. Los dispositivos deben ser aceptados por los pacientes, los dispositivos de IMC también tienen que actuar de la misma manera y sentir lo mismo que los miembros de los sujetos propios.
En la prótesis todavía hay detalles de este sistema que tienen que ser resueltos a través de las investigaciones futuras, el IMC para el consumo humano en aplicaciones clínicas debe ser infiltrado en el cuerpo del paciente tanto como sea posible. La prótesis no sólo debe tener la funcionalidad del brazo humano en términos de potencia y la precisión de los actuadores, también debe estar equipado con los sensores del tacto y la posición de las señales para que se pueda transmitir de nuevo al cerebro del sujeto.
Pero a pesar de todos los avances, todavía estamos muy lejos de una realidad fiable, sofisticado y de larga duración índice de masa corporal que podría mejorar radicalmente la vida de las personas con discapacidad física, y mucho menos uno que podría dejarte ver el espectro infrarrojo o descargar las entradas de Wikipedia directamente en la corteza cerebral . Los investigadores de todo el mundo todavía están luchando para resolver los problemas más básicos y críticos, que incluyen el mantenimiento de los implantes de trabajo de forma fiable en el interior del cerebro y que los hace capaces de controlar complejas prótesis robóticas que son útiles para las actividades diarias. A riesgo de perder su credibilidad, el campo, necesita transformar los sistemas de índice de masa corporal a partir de prototipos de una especie en la tecnología probada clínicamente, como marcapasos (impulsa artificial y rítmicamente el corazón manteniendo un ritmo y frecuencia adecuados) e implantes cocleares (para estimular el nervio auditivo).
Es hora de un nuevo enfoque al diseño de índice de masa corporal. En mi laboratorio de la Universidad de California en Berkeley , que se han concentrado en una sola pieza crucial del rompecabezas que nos sentimos no se encuentra en el enfoque estándar de hoy: cómo hacer que el cerebro se adapte a una prótesis, asimilando como si se tratara de un parte natural del cuerpo. La mayoría de la investigación actual se centra en los implantes que se conectan con los circuitos neuronales específicos, conocidos como los mapas de la corteza motora. Con tal sistema, si usted quiere controlar una prótesis de brazo, intenta tocar el mapa cortical asociada con el brazo humano. Pero, ¿es eso realmente necesario?
Nuestra investigación ha sugerido lo contrario: que para operar un brazo robótico puede que no necesite usar el mapa cortical que controla el brazo de una persona. ¿Por qué no? Debido a que el cerebro de esa persona es aparentemente capaz de desarrollar un circuito neural dedicado, llamado una memoria de motor, para controlar un dispositivo virtual o brazo robótico de una manera similar a la manera que crea tales memorias para innumerables otros movimientos y actividades de la vida. Para nuestra sorpresa, los experimentos demostraron que aprender a controlar un dispositivo sin cuerpo es, por su cerebro, no muy diferente de aprender a esquiar o para usar una raqueta de tenis. Es esta extraordinaria plasticidad del cerebro, en nuestra opinión, que los investigadores deben aprovechar para marcar el comienzo de una nueva ola de descubrimientos índice de masa corporal que finalmente se cumplan las promesas de esta tecnología.
Como se puede ver hay distintas formas de llegar al mismo fin: ayudar a las personas a acercarse más a su vida anterior a la amputación de un miembro, de ellas se estudiaran y se sacará lo mejor para llegar al fin deseado.
En este caso, el paradigma más complejo lo constituye la prótesis de mano, dando lugar desde hace tiempo a estudios sobre las formas de agarre, los tipos de prensión y la realimentación ante el deslizamiento, entre otros. En la prótesis de mano, además de resolver de forma eficiente los problemas mecánicos de un buen número de articulaciones, es preciso implementar un sistema eficiente de interacción con el humano, dadas las numerosas modalidades cinemáticas y cinéticas correspondientes a los diferentes modos de agarre. Una solución no invasiva es utilizar las señales electromiográficas EMG generadas ya sea por el muñón residual ya por músculos de otro órgano distinto. Por ejemplo una solución posible para resolver la exigencia de un alto número de comandos es utilizando un solo canal EMG, el dispositivo MANUS-HAND, que incorpora una lógica ternaria, operativa y de fácil uso, que está compuesta por palabras de tres “bits” correspondientes a tres niveles (0, 1 y 2) de contracción muscular. Se consigue así generar hasta 18 comandos diferentes para los cincos modos de agarre definidos que cubren más del 90% de las necesidades de agarre. Permite además ejecutar diferentes niveles de fuerza en los tres dedos activos y la muñeca, estando dotada esta de un motor piezoeléctrico de muy bajo ruido. Los dedos activos incorporan sensores de efecto Hall para el control del deslizamiento y de la fuerza de prensión, con realimentación háptica (todo aquello referido al contacto, conjunto de sensaciones no visuales y no auditivas que experimenta un individuo) sobre el usuario todo gobernado por el cerebro.
La siguiente noticia habla de la necesidad de ayudar a las personas dependientes en cierta forma y de la implantación del BCI en el hogar para su mayor autonomía, con alguna opnión personal además de tratar ciertos temas informativos acerca del BCI:
Una tecnología pionera convertirá las ondas cerebrales en mando de telecontrol de los aparatos tecnológicos dentro del hogar, a partir de un sistema de captación de la actividad neuronal mediante electroencefalograma, lo que favorecerá la calidad de vida de los discapacitados y los mayores.
La iniciativa, seleccionada en la última convocatoria de Proyectos Cero en Envejecimiento de la Fundación General CSIC, que impulsan la Obra Social "la Caixa" y el CSIC, está liderada por el Grupo de Ingeniería Biomédica (GIB) de la Universidad de Valladolid, que dirige Roberto Hornero.Tareas tan sencillas como encender la radio, la luz o la calefacción en casa pueden resultar inalcanzables para muchos discapacitados, y con el objetivo de eliminar barreras ha surgido este proyecto, denominado "Brain Computer Interface (BCI) for cognitive training and domotic assistance against the effects of ageing". También participan en el mismo el grupo "Cognitive Bioengineering" del Centro de Automática y Robótica del Consejo Superior de Investigaciones Científicas, encabezado por María Dolores del Castillo, junto con el Centro de Referencia Estatal de Discapacidad y Dependencia.
En declaraciones a Efe, Hornero ha recordado cómo la discapacidad y la dependencia se acentúan progresivamente con el envejecimiento y, precisamente, en los últimos tiempos se está disparando la esperanza de vida en la población.Según sus datos, solo en 2008, en España, más de 1,7 millones de personas mayores de 64 años tenían dificultades para desarrollar actividades comunes de la vida diaria.
Este proyecto utiliza una interfaz BCI, que es un sistema de comunicación que monitoriza la actividad cerebral, al tiempo que identifica y traduce en comandos que pueden ser empleados para controlar un dispositivo ciertas características neuronales que reflejan las intenciones del usuario. Los investigadores trabajan ya en el desarrollo de una aplicación informática que se adapte a ese sistema BCI y permita mejorar la autonomía de los discapacitados, de modo que puedan gestionar la domótica únicamente con las ondas cerebrales. Por ejemplo, el teléfono, las luces, la calefacción, un ventilador, la televisión, el DVD, un equipo de música, etc.
Hornero ha recordado que existen experiencias anteriores con BCI desarrolladas por su grupo de trabajo basadas en ritmos sensomotores. El problema de esas experiencias BCI con ritmos sensomotores, con las que se han conseguido objetivos como dirigir un robot, o una pelota, es que requieren de un entrenamiento excesivamente intenso, que muchas veces el beneficiario no puede seguir o concluir. En este caso, los movimientos se controlarán a partir de un sistema BCI pero basado en P300, en donde el individuo tiene que fijarse en la acción que quiere seleccionar entre otras muchas que se iluminan de forma aleatoria.
El P300 en una interfaz cerebral no invasiva que utiliza señales EEG (señales eléctricas del cerebro: electroencefalográficas). Las interfaces que emplean señales EEG evocadas hacen uso del llamado potencial evocado, que refleja respuestas automáticas inmediatas del cerebro a algún estímulo externo. Los potenciales evocados son fáciles de obtener mediante electrodos. En el desarrollo de interfaces cerebro-computador se utiliza habitualmente el potencial evocado P300. Sin embargo, la necesidad de estimulación externa restringe su aplicación a un número limitado de tareas. Pero a su vez no necesita un largo periodo de entrenamiento ni un nivel de concentración excesivamente elevado. Dentro de las señales no invasivas EGG están también las espontáneas que desarrollaré aplicaciones en otros artículos pero que en resumen es la forma más natural y deseable de interacción es analizar los componentes asociados con la actividad cerebral espontánea. Las interfaces cerebro computador espontáneas se basan en el análisis de señales EEG asociadas con diversos aspectos de la función cerebral relacionada con tareas mentales realizadas por el sujeto. Estos sistemas requieren un participación intensiva por parte del usuario, por lo que la interacción de estos con la aplicación podría suponer un entrenamiento muy adecuado para prevenir el deterioro cognitivo asociado a la edad.
Aparte del reto de convertir las ondas cerebrales en mando de telecontrol, los investigadores trabajan asimismo en el desarrollo de otra aplicación para ralentizar el envejecimiento de personas mayores con capacidades cognitivas o físicas normales, es decir, sin discapacidad. Para ello, están inmersos en el diseño de un amplio número de tareas a partir del citado sistema BCI, integradas a modo de juego que permitirán evaluar las habilidades y competencias de los usuarios. Estas tareas serán agrupadas en distintas categorías (atención, percepción, cálculo mental, interacción espacial, memoria, etc.), y en diferentes niveles de dificultad (fácil, intermedio, alto, experto, etc.).
Fuente: EFE
Esta noticia araña sobre la superficie de lo que podemos y podremos conseguir leyendo y traduciendo lo que las ondas cerebrales nos dicen. Esto ayudaría en el día a día de personas que lo necesitan debido a discapacidades o personas que simplemente quieren una vida todavía más cómoda gracias a las tecnologías. Pero si estas las usa gente que realmente no las necesita y no se levanta ni para encender la luz puede que muchas personas sean aun más sedentarias. Sin embargo la demanda social que requieren los colectivos de la tercera edad, con necesidades especiales y cierto grado de dependencia, es cada vez mayor en nuestra sociedad constituyendo uno de los retos sociales actuales. Los sistemas de salud y de atención social, tanto públicos como privados, con un coste importante, han habilitado una serie de recursos de hospitales, centros de rehabilitación y asistencia domiciliaria, entre otros, para responder a estos problemas. En todos los casos se pretende dotar a la persona del mayor bienestar y la mayor autonomía posible en el desempeño de sus tareas, desde las básicas de la vida diaria (alimentación, aseo, vestido) hasta las propias de la vida social, tales como la movilidad y la comunicación. Pero esta autonomía que pueden conseguir las personas debe ir acompañada de apoyo humano ya que siempre se necesita un trato social para alcanzar un alto bienestar social. Aunque también se están desarrollando aplicaciones en las que un paciente que está impedido de movimiento puede controlar un robot por medio del pensamiento y participar gracias a este en actividades sociales familiares alrededor de la casa. El ordenador del futuro será un mayordomo perfecto, que conocerá mi entorno, mis gustos y mi manera de ser, y de forma discreta se adelanta a mis necesidades sin precisar órdenes explícitas. Cuando el usuario se comunica con este mayordomo, lo hace principalmente mediante el habla, gestos, expresiones faciales y otras formas de comunicación humana, como el dibujo de bosquejos. Este hecho de poder ofrecer artefactos que puedan aprender, crear y comunicarse de igual a igual con una persona podría llegar a tomar un carácter social y sanitario importante. Cada vez es mayor el colectivo de profesionales del mundo de la innovación, la docencia y la investigación centrados en temas relacionados con el estudio de esta forma crear magia leyendo la mente.