Deep Learning: ¿El principio del fin?

En la actualidad, la disponibilidad de alta capacidad de procesamiento y los altos niveles de almacenamiento de datos, han potenciado y facilitado el desarrollo de productos y servicios que hacen uso del Deep Learning (DL) o aprendizaje profundo, para maximizar las posibilidades de éxito en la toma de decisiones con relación a un objetivo o tarea.

El DL es parte de la familia de inteligencia artificial (AI por sus siglas en inglés). Esta combina varios campos como la robótica, los sistemas expertos y otros, que basados en la lógica y las ciencias cognitivas proporcionan la posibilidad de crear máquinas inteligentes capaces de observar su entorno, procesar datos, y basados en esto, tomar decisiones que maximicen las posibilidades de éxito en un objetivo o tarea.

El DL a su vez, es una rama de inteligencia artificial (AI), que haciendo uso de sistemas de programas y estructuras de datos simulan el funcionamiento del cerebro humano, conocido como redes neuronales.

En un principio una red neuronal se “adiestra” o se alimenta con grandes cantidades de datos y reglas acerca de las relaciones entre estos datos. Luego, un programa puede indicar a la red neuronal cómo comportarse en respuesta a un estímulo externo, o puede iniciar una actividad por sí misma.

Algunas de las aplicaciones del Deep Learning incluye:

  • Motores de búsqueda
  • Diagnósticos médicos
  • Detección de fraudes bancarios
  • Análisis del mercado bursátil
  • Clasificación de secuencias de ADN
  • Reconocimiento del lenguaje natural
  • Juegos
  • Robótica
  • Transportes autónomos
  • Reconocimiento instantáneo de objetos, entre otros.

Actualmente la aplicación del Deep Learning ha tenido gran éxito en la resolución de problemas, y ha entregado muy buenos resultados en varios de los experimentos en los cuales ha sido puesto en práctica, tal es el caso de NASNet, un algoritmo de reconocimiento de objetos en tiempo real, que supera a todos los que se han diseñado hasta el momento, obteniendo una precisión de hasta el 82,7% [1].

Sin embargo, muchos de los productos que basan su operación en DL se encuentran en fases experimentales; ya que los algoritmos que usa son tan complicados que incluso para sus diseñadores podría resultar muy difícil determinar el cómo y el porqué de un resultado. Junto a esto, está el hecho de que las máquinas y sistemas de inteligencia artificial carecen de dos componentes muy importantes: sentimientos y ética, por lo que no son capaces de discernir correctamente entre el bien y el mal.

Ejemplo de esto fue un experimento donde se sometía a un robot al dilema ético de tener que salvar a dos personas al mismo tiempo [2]. Los resultados arrojaron que, en 14 de los 30 intentos, el robot se vio ante la posibilidad de salvar solo a una de las dos personas y, en vez de elegir a quién salvar, fue incapaz de tomar una decisión, y ambas personas murieron. Esto, da cuenta de lo complicado que puede ser para un robot tomar una decisión donde la lógica no es el factor determinante.

Estas implicaciones han conllevado a que un grupo de científicos y expertos en AI entre los cuales se destacan Stephen Hawking, Elon Musk y Verno Vinge, se cuestionen acerca de la posibilidad que existe de que, en un ambiente no controlado en forma adecuada, los sistemas basados en AI puedan tener comportamientos no deseados e incluso dañinos, llegando a rediseñarse por cuenta propia y revelarse  contra la raza humana. Estos expertos muestran así preocupación ante una posible independencia de elementos desarrollados bajo inteligencia artificial, capaz de tomar vida propia, superarse y redefinirse. De este modo, quienes hoy están a cargo de estos dispositivos perderían el control sobre las máquinas y éstas podrían actuar en contra de sus creadores.

Hawking afirma, “la inteligencia artificial desarrollada hasta ahora ha probado ser muy útil”, pero teme que una versión más elaborada de IA “pueda decidir rediseñarse por cuenta propia e incluso llegar a un nivel superior” [3].

Todo lo anterior expuesto pone quizás en tela de juicio el desarrollo de experimentos basados en AI sin una regulación oficial que permita controlar los límites o las condiciones de estos desarrollos.

Por lo pronto, mientras el tiempo transcurre y con la frontera de la computación cuántica en el horizonte, en Wenu Work trabajaremos en algunos algoritmos basados en Deep Learning para predecir consumo y gasto energético, que nos permitan contribuir con el desarrollo energético sustentable, reduciendo costos de operación y optimizando la eficiencia del uso de la energía.

Michael De Jesus – CTO en Wenu Work

 

[1] https://futurism.com/google-artificial-intelligence-built-ai/

[2] https://www.newscientist.com/article/mg22329863.700-ethical-trap-robot-paralysed-by-choice-of-who-to-save/#.VCAwpit5Oa2

[3]http://www.bbc.com/mundo/ultimas_noticias/2014/12/141202_ultnot_hawking_inteligencia_artificial_riesgo_humanidad_egn

 

Leave a Reply

Expositores en: