Ciencia de la IA

La Inteligencia Artificial es un conjunto de diferentes Ciencias :

  • Aprendizaje automático (ML)
  • Redes Neuronales (NN)
  • Aprendizaje profundo (DL)
  • Grandes datos
Weak Machine Learning Neural Networks Big Data Deep Learning Strong

Científicos de IA

Los científicos de IA construyen software con algoritmos que pueden realizar tareas que normalmente requieren inteligencia humana.

Los científicos de IA pueden ser expertos en múltiples disciplinas de IA:

  • Matemáticas Aplicadas
  • Estadísticas computacionales
  • Ciencias de la Computación
  • Aprendizaje automático
  • Aprendizaje profundo

Algunos científicos de IA también tienen una experiencia significativa en big data:

  • Inteligencia de negocios
  • Diseño de Base de Datos
  • Diseño de almacén de datos
  • Procesamiento de datos
  • Consultas SQL
  • Informes SQL

IA débil

La inteligencia artificial débil se limita a áreas específicas o estrechas como la mayoría de la IA que tenemos a nuestro alrededor hoy:

  • Los motores de búsqueda
  • Siri de Apple
  • Cortana de Microsoft
  • Alexa de Amazon
  • Watson de IBM

La IA débil también se llama IA estrecha.

La IA débil simula la cognición humana en contraste con la IA fuerte que tiene cognición humana .


IA fuerte

La Inteligencia Artificial Fuerte es el tipo de IA que imita la inteligencia humana.

Una IA fuerte indica la capacidad de pensar, planificar, aprender y comunicarse.

Strong AI es el siguiente nivel teórico de AI: True Intelligence .

La IA fuerte se mueve hacia máquinas con autoconciencia, conciencia y pensamientos objetivos.

No es necesario decidir si una máquina puede "pensar".
Uno solo necesita decidir si una máquina puede actuar tan inteligentemente como un humano.

alan turing


Aprendizaje automático (ML)

La programación clásica utiliza programas para crear resultados:

Computación tradicional

Datos + Programa de computadora = Resultado

Machine Learning utiliza los resultados para crear programas (algoritmos):

Aprendizaje automático

Datos + Resultado = Programa de computadora

"El aprendizaje automático es un campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programadas".

Arturo Samuel (1959)


Redes Neuronales (NN)

Uno de los descubrimientos más importantes de la historia es el poder de las redes neuronales (NN).

En las redes neuronales, muchas capas de datos llamadas neuronas se suman o se apilan una encima de la otra para calcular nuevos niveles de datos.

Nombres cortos de uso común:

  • Red neuronal profunda DNN
  • Red neuronal convolucional CNN
  • Red neuronal recurrente RNN

Aprendizaje profundo (DL)

El aprendizaje profundo son algoritmos que utilizan redes neuronales para extraer datos de nivel superior.

Cada capa sucesiva utiliza la capa anterior como entrada.

Por ejemplo, la lectura óptica usa capas bajas para identificar bordes y capas más altas para identificar letras.

El aprendizaje profundo tiene dos fases:

1. Entrenamiento: Los datos de entrada se utilizan para calcular los parámetros del modelo.

2. Inferencia: el modelo "entrenado" genera datos de cualquier entrada dada.


La revolución del aprendizaje profundo

¡La revolución del aprendizaje profundo está aquí!

La revolución del aprendizaje profundo comenzó alrededor de 2010. Desde entonces, el aprendizaje profundo se ha utilizado para resolver muchos problemas "irresolubles".


Ejemplos

Redes neuronales convolucionales (CNN)

Las CNN profundas como ResNeta e Inception han reducido la tasa de error en la clasificación de ImageNet del 25 % en 2011 al 5 % en 2017.

ImageNet es una base de datos de imágenes organizada según la jerarquía de WordNet, en la que cada nodo de la jerarquía contiene cientos y miles de imágenes. ImageNet es un recurso útil para investigadores, educadores, estudiantes y cualquier otra persona apasionada por las imágenes.

WordNet es una base de datos léxica de relaciones semánticas entre palabras en más de 200 idiomas. Está organizado como una combinación de diccionario y tesauro, uniendo palabras en relaciones semánticas usando sinónimos, hipónimos y merónimos.

Redes neuronales recurrentes (RNN)

Los RNN están ayudando a crear partituras musicales y sonidos de instrumentos novedosos:
https://magenta.tensorflow.org/demos .


Historia de la IA

1950Alan Turing publica "Maquinaria informática e inteligencia"
1956AI mencionado por primera vez por John McCarthy en una conferencia académica
1957Primer lenguaje de programación para computación numérica y científica (FORTRAN)
1958Primer lenguaje de programación de IA (Lisp)
1959Arthur Samuel usó el término "Aprendizaje automático"
1961Primer robot industrial (Unimate) en la línea de montaje de General Motors.
1965ELIZA de Joseph Weizenbaum fue el primer programa interactivo que podía comunicar sobre cualquier tema
1972Primer lenguaje de programación lógica (PROLOG)
1997Deep Blue (IBM) vence al campeón mundial de ajedrez
2002El primer robot limpiador (Roomba)
2005El coche autónomo (STANLEY) gana DARPA
2008Avance en el reconocimiento de voz (Google)
2011Una red neuronal gana a los humanos en reconocimiento de señales de tráfico (99,46% vs 99,22%)
2011Apple Siri
2011Watson (IBM) gana Jeopardy!
2014Amazon Alexa
2014microsoft cortana
2014El automóvil autónomo (Google) pasa un examen de manejo estatal
2015Google AlphaGo derrotó a varios campeones humanos en el juego de mesa Go
2016El robot humano Sofia de Hanson Robotics
Inventar