miércoles, 8 de septiembre de 2010

Decoding spoken words using local field potentials recorded from the cortical surface

Decoding spoken words using local field potentials recorded from the cortical surface
FREE ARTICLE
Author Spencer Kellis1, Kai Miller2, Kyle Thomson3, Richard Brown1, Paul House4 and Bradley Greger3


Affiliations 1 Department of Electrical and Computer Engineering, University of Utah, Salt Lake City, UT 84112, USA
2 Department of Neurobiology and Behavior, University of Washington School of Medicine, Seattle, WA 98195, USA
3 Department of Bioengineering, University of Utah, Salt Lake City, UT 84112, USA
4 Department of Neurosurgery, University of Utah, Salt Lake City, UT 84112, USA

E-mail bradley.greger@utah.edu
Journal Journal of Neural Engineering Create an alert RSS this journal
Issue Volume 7, Number 5
Citation Spencer Kellis et al 2010 J. Neural Eng. 7 056007

doi: 10.1088/1741-2560/7/5/056007


Pathological conditions such as amyotrophic lateral sclerosis or damage to the brainstem can leave patients severely paralyzed but fully aware, in a condition known as 'locked-in syndrome'. Communication in this state is often reduced to selecting individual letters or words by arduous residual movements. More intuitive and rapid communication may be restored by directly interfacing with language areas of the cerebral cortex. We used a grid of closely spaced, nonpenetrating micro-electrodes to record local field potentials (LFPs) from the surface of face motor cortex and Wernicke's area. From these LFPs we were successful in classifying a small set of words on a trial-by-trial basis at levels well above chance. We found that the pattern of electrodes with the highest accuracy changed for each word, which supports the idea that closely spaced micro-electrodes are capable of capturing neural signals from independent neural processing assemblies. These results further support using cortical surface potentials (electrocorticography) in brain–computer interfaces. These results also show that LFPs recorded from the cortical surface (micro-electrocorticography) of language areas can be used to classify speech-related cortical rhythms and potentially restore communication to locked-in patients.
PACS 43.71.Qr Neurophysiology of speech perception

87.19.L- Neuroscience

87.19.R- Mechanical and electrical properties of tissues and organs

87.19.X- Diseases
Subjects Medical physics

Biological physics
Dates Issue 5 (October 2010)

Received 22 mayo 2010 , accepted for publication 5 agosto 2010

Published 1 septiembre 2010

Your last 10 viewed
Decoding spoken words using local field potentials recorded from the cortical surface
Spencer Kellis et al 2010 J. Neural Eng. 7 056007

open here to see the full-text:
Decoding spoken words using local field potentials recorded from the cortical surface



BIOMEDICINA
Consiguen descodificar palabras a partir de señales cerebrales
JANO.es · 08 Septiembre 2010 09:19

Se trata de un primer paso para lograr que personas con parálisis puedan comunicarse a través de sus pensamientos.


"Hemos sido capaces de descifrar las palabras habladas utilizando sólo las señales emitidas desde el cerebro con un dispositivo que tiene perspectivas prometedoras para el uso a largo plazo en pacientes con parálisis, y que son incapaces de hablar", dice Bradley Greger, profesor de Bioingeniería.

Dado que el método debe mejorar mucho más e implica la colocación de electrodos en el cerebro, el experto cree que habrá que esperar unos años antes de que se puedan efectuar ensayos clínicos en personas con parálisis.

Identificación de 10 palabras
Los investigadores de la Universidad de Utah implantaron redes de microelectrodos en los centros del lenguaje en el cerebro de un voluntario con severos ataques epilépticos. El hombre ya tenía una craneotomía -retirada temporal parcial del cráneo- para que los médicos pudieran colocar electrodos convencionales más grandes y localizar el origen de sus ataques y detenerlos quirúrgicamente.

Usando microelectrodos experimentales, los científicos registraron las señales del cerebro mientras el paciente repetidamente leía cada una de 10 palabras que podían ser útiles a una persona paralizada (sí, no, caliente, frío, hambre, sed, hola, adiós, más y menos).

Posteriormente, trataron de averiguar qué señales envía el cerebro, representadas para cada una de las palabras. Cuando compararon las señales del cerebro, fueron capaces de distinguirlas para cada palabra entre un 76% y un 90% del tiempo.

Posteriormente, examinaron los 10 patrones de señal a la vez y fueron capaces de seleccionar la palabra correcta en cualquier señal del 28% al 48% del tiempo, un dato mejor que el azar (un 10%), aunque no lo suficientemente bueno para un dispositivo para traducir los pensamientos de una persona paralizada en palabras habladas por un ordenador.

"Esta es una prueba de concepto", dice Greger. "Hemos demostrado que estas señales pueden trasladar lo que la persona está diciendo muy por encima de la casualidad. Pero tenemos que ser capaces de hacer más palabras con más precisión antes de que sea algo que realmente pueda ser útil", informa Science Daily.

El grupo de pacientes que eventualmente podría beneficiarse de un dispositivo inalámbrico que convierte los pensamientos en palabras habladas por ordenador serían personas con parálisis por derrame cerebral, enfermedad de Lou Gehrig y traumatismos, dice Greger.


J. Neural Eng. 7 056007; doi: 10.1088/1741-2560/7/5/056007
http://iopscience.iop.org/1741-2552/7/5/056007

Journal of Neural Engineering
http://iopscience.iop.org/1741-2552

Universidad de Utah
http://www.utah.edu/portal/site/uuhome/

No hay comentarios:

Publicar un comentario