Estamos en un momento de irrupción tecnológica


La Inteligencia Artificial ha pasado por un tiempo de invierno pero ahora podemos ver que ya está en primavera o en verano, podemos hablar de tres hitos que han marcado su eclosión:.
  • 1996 un sistema inteligente con un ordenador de cálculo potente Deep Blue le ganó por primera vez al campeón del mundo de ajedrez a Gary Kasparov una partida. 
  • 2005 un coche del equipo de Stanford  en el DARPA Grand Challenge americano cruzó  zonas desérticas y de bosques sin conductor y llegó a la meta. Provisto de potentes sensores con redes que emulaban el sistema nervioso recogían las señales  que permitía procesar. Aquí estamos hablando ya de la fusión de los datos y de los sistemas inteligentes.
  • 2016 AlphaGo sistema inteligente artificial desarrollado por la empresa DeepMind, desarrollo un modelo de inteligencia artificial con modelos neuronales de aprendizaje profundo. Aprendió a partir de la experiencia con miles, cientos de miles de partidas.  Aprendió a jugar al GO, después perfeccionó su modo de juego y le ganó al campeón del mundo al coreano Lee Sedol, le ganó un torneo, cinco partidas.. Quedó cuatro a uno. Una derrota indiscutible y además la maquina desarrolló estrategias de juego que nunca habían desarrollado los jugadores profesionales. 
Esto nos sitúa en que los datos masivos  combinados con Inteligencia Artificial están transformando el mundo.  Un mundo que  se compone de percepciones, sistemas inteligentes que procesan los datos de las percepciones, y de actuaciones, que en el caso de ser físicas serán con robots. Y en el centro emachine learning (aprendizaje automático) con todas sus tipologías de algoritmo, entre las que están las de modelos neuronales que  resolverán una buena cantidad de problemas. 

Hablabamos del coche sin conductor, hablabamos del sistema de la automatización de la industria, pero  tenemos un gran reto: Explicar cómo generan las máquinas las predicciones. Lo que se conoce como Inteligencia Artificial Explicable  XAI. Necesitamos nuevos modelos que sean capaces de explicarnos porque toman decisiones los algoritmos. 

Un ejemplo,, un sistema de Inteligencia Artificial que analizando el patrón del electrocardiograma de 400.000 personas es capaz de detectar si una persona va a fallecer en el plazo de un año y con una precisión del 0,85. Normalmente los médicos tienen una precisión del 0,65 o 0,7.  Ahora un  modelo neuronal es capaz de detectarlo en personas que han fallecido, y que los médicos veían señales normales en el electrocardiograma. Por tanto es modelo neuronal fue capaz de encontrar algo que los doctores no veían. 

¿Qué ocurre? 
Que ahora mismo tenemos un modelo que puede decir con una probabilidad muy alta que una persona pueda fallecer, pero el modelo no puede explicar por qué ha llegado esa conclusión. Se sabe, claro está que las señales están en el electro. Que allí hay algo que  ha conducido a ese sistema aprendido,  que ese patrón se ha repetido en otras personas y por eso lo detecta. Pero necesitamos ahora mismo sistemas que sean capaces de explicar por qué detecta este conocimiento. 

Eso permitirá hacer un trabajo conjunto entre los expertos en cualquier ámbito, particularmente en este caso en el ámbito médico, y los sistemas inteligentes que podrán ayudar a aprender y tener nuevas capacidades para los médicos. Nos encontramos en un momento apasionante porque los retos grandísimos.

¿Y qué tenemos como actividad pendiente?
Que para estos retos se requiere alumnos que estudien en el ámbito de la Inteligencia Artificial porque  es el gran reto siglo XXI,  que se nutre en los datos, y que gracias al machine learning,  ahora tenemos la conciencia del dato, para las tecnologías inteligentes, para el  razonamiento, para las ubicación, etc,  y que nos está situando en este momento de irrupción tecnológica. 
                                     
                                                    ( de la conferencia de Francisco Herrera )                  seguir >>

No hay comentarios:

Publicar un comentario