Oportunidad de Trabajo desde Casa Gratis

martes, 4 de septiembre de 2012

GRAN HITO: Sistema permite escribir letras con solo pensarlas, en tiempo real. Opinión


NOTA: Fuente de este artículo: eliax.com por autor José Elías.

Científicos acaban de lograr un gran avance que tendrá grandes repercusiones futuras tanto en áreas específicas de la salud, como en nuestras vidas cotidianas.

Sucede que un equipo del Departamento de Neurocognición de la Facultad de Psicología y Neurociencia de la Universidad de Maastricht, han logrado por primera vez el primer sistema que puede traducir, en tiempo real, y de forma consistente, cualquier letra que uno se imagine del abecedario y convertirla en forma textual en una pantalla.

El equipo utilizó la técnica de Resonancia Magnética Funcional (fMRI, por sus siglas en inglés), para analizar los patrones de flujo sanguíneo en el cerebro de los participantes del experimentos, pero a diferencia de sistemas anteriores, este se entrena en una sola y rápida sesión, en donde se les muestra a la personas una letra a la vez del abecedario, mientras se captura lo que la persona "piensa" en su cerebro cada vez que ve una letra.

Después de ahí, la persona puede inmediatamente pensar en todas las letras que desee, y el sistema las interpreta correctamente desplegándolas en tiempo real en una pantalla.

Esto, como de seguro ya muchos se podrán imaginar, será sensacional para personas paraplégicas o que sencillamente no puedan emitir palabras, ya que con este sistema podrán por fin, a una velocidad al menos relativamente cercana a la que hablamos, emitir palabras. Y no solo palabras en una pantalla, sino que incluso tomar esas palabras y emitirlas en una voz sintética que suene bastante natural (como ya lo hacen sistemas hoy día de varias empresas, como el asistente virtual Siri del iPhone, o el nuevo sistema de Google Now de Google, así como sistemas similares a Natural Voices).

Sin embargo, recordemos que las personas que tienen esas deficiencias y necesidades son una pequeñísima parte de la población, por lo que el verdadero impacto de esto vendrá al largo plazo cuando esto se integre a sistemas en la población en general, similar a como ocurrió con celulares.

Por ejemplo, con un sistema como este miniaturizado, o incluso incrustado como una extensión de nuestras mentes dentro de nuestros propios cerebros, podrías llegar a un futuro en donde nos comunicaríamos en esencia con solo pensarlo, sin emitir palabras (pues sabemos que la próxima evolución de este sistema es emitir oraciones completas en tiempo real, no solo letras - algo que ya se ha logrado de forma limitada anteriormente).

Eso significa que dispositivos como el IrixPhone o el Google Glass podría ahora controlarlo con solo pensar comandos, y gracias a dispositivos que hoy ya existen y que detectan exactamente en cual dirección estamos viendo con nuestros ojos, podremos lograr un asombroso nivel de interacción como es sencillamente imposible hoy día con celulares y tabletas.

Por ejemplo, imaginen que tienen un IrixPhone con ustedes, y que están caminando por la calle frente a una tienda en donde ven unos zapatos que les gustan. Con solo ver los zapatos directamente y pensar "quiero más detalles" el sistema automáticamente entendería que te refieres a los zapatos, y al saber tu localización geográfica exacta, y por tanto el de la tienda que estás viendo, y por el uso de reconocimiento de imágenes y técnicas auxiliares similares a la tecnología inalámbrica NFC, el sistema podrá saber exactamente cual es el producto, y buscar más información no solo sobre este (como por ejemplo, lo que piensan otros consumidores que lo compraron, y mostrarte esa información en tu campo de visión flotando sobre los zapatos), sino que además informarte si tienes algún programa de descuento que te permitan comprar esos zapatos de forma más barata en esa tienda en específico.

Similarmente podemos imaginarnos haciendo llamadas "telefónicas" (serían más bien, "telepáticas"), en donde con solo pensar las palabras estas se emitirían de forma remota con nuestra misma voz, y viceversa con la persona al otro extremo de la linea, en esencia teniendo dos personas remotas una conversación con solo pensar.

El futuro, mis queridos amig@s lectores, está muchísimo más cercano de lo que muchos se imaginan... Este es un buen momento para refrescarnos la mente sobre el tema de La Singularidad...

¡Gracias a todos los lectores que enviaron esta noticia!

fuente

Leer 33 Comentarios

Previamente en eliax:
Implante cerebral permite saber lo que piensas en palabras (Nov 16, 2007)
Demuestran dispositivo que permite "telepatía" entre humanos (Mar 13, 2008)
Demuestran que sentimientos se transmiten por chateo (Oct 28, 2008)
Científicos decodifican imágenes directamente del pensamiento (Dec 11, 2008)
AT&T Natural Voices, un asombroso sintetizador de voz artificial (Jan 15, 2009)
DARPA desarrollando tecnología para comunicar con la mente (May 14, 2009)
Pregunta a eliax: ¿Es posible la Telepatía y Telekinesis con la mente? (May 16, 2009)
Editorial eliax: Sobre el futuro de la comunicación humana (Sep 6, 2009)
Editorial eliax: Hackers pronto empezarán a controlar la mente humana (Sep 25, 2009)
Dispositivo que se conecta a tu cerebro y averigua lo que has visto (Sep 28, 2009)
Crean primeros circuitos que se fusionan con organismo humano (Nov 3, 2009)
Reflexiones 6: En la ópera, sin Mozart, Verdi o Puccini... (Nov 10, 2009)
Intel anuncia que tendrá chips controlados por la mente para el 2020 (Nov 23, 2009)
Reflexiones 15: Un asistente personal artificial... (Dec 9, 2009)
Dispositivo permite que pienses letras/palabras y que este las escriba (Dec 11, 2009)
Gran hito: Máquina traduce pensamientos a habla en tiempo real (Dec 30, 2009)
Computadora ya puede detectar cual de entre varias memorias estás recordando (Mar 17, 2010)
Crean primera fusión experimental entre transistores y células biológicas (Jun 5, 2010)
Reflexiones 19: Los fans del habla tradicional... (Jul 9, 2010)
Pregunta a eliax: ¿Qué es La Singularidad? (Jul 23, 2010)
Análisis: Por qué Intel compró a McAfee Antivirus por US$7,680 Millones de dólares (Aug 20, 2010)
El robot HRP-4C vestido como Hatsune Miku cantando con Vocaloid (Aug 21, 2010)
Reflexiones 23: El IrixPhone... (Aug 29, 2010)
Primera demostración en vivo del futuro Traductor Universal de Voz de Google (Oct 4, 2010)
Guante convierte lenguaje por señas a texto escrito. Video (Apr 25, 2011)
Pregunta a eliax: ¿Por qué nuestras voces suenan diferentes en grabaciones? (May 5, 2011)
NTT DoCoMo demuestra traducción telefónica bi-direccional y casi simultánea (Jun 1, 2011)
GRAN HITO: Computadora graba video de lo que ves en tu mente. Opinión (Sep 23, 2011)
Análisis eliax: Sobre el nuevo iPhone 4S y Siri el Asistente Digital (Oct 5, 2011)
El Project Glass de Google. Se acerca el IrixPhone (Apr 5, 2012)