Ciencia de la IA
La Inteligencia Artificial es un conjunto de diferentes Ciencias :
- Aprendizaje automático (ML)
- Redes Neuronales (NN)
- Aprendizaje profundo (DL)
- Grandes datos
Científicos de IA
Los científicos de IA construyen software con algoritmos que pueden realizar tareas que normalmente requieren inteligencia humana.
Los científicos de IA pueden ser expertos en múltiples disciplinas de IA:
- Matemáticas Aplicadas
- Estadísticas computacionales
- Ciencias de la Computación
- Aprendizaje automático
- Aprendizaje profundo
Algunos científicos de IA también tienen una experiencia significativa en big data:
- Inteligencia de negocios
- Diseño de Base de Datos
- Diseño de almacén de datos
- Procesamiento de datos
- Consultas SQL
- Informes SQL
IA débil
La inteligencia artificial débil se limita a áreas específicas o estrechas como la mayoría de la IA que tenemos a nuestro alrededor hoy:
- Los motores de búsqueda
- Siri de Apple
- Cortana de Microsoft
- Alexa de Amazon
- Watson de IBM
La IA débil también se llama IA estrecha.
La IA débil simula la cognición humana en contraste con la IA fuerte que tiene cognición humana .
IA fuerte
La Inteligencia Artificial Fuerte es el tipo de IA que imita la inteligencia humana.
Una IA fuerte indica la capacidad de pensar, planificar, aprender y comunicarse.
Strong AI es el siguiente nivel teórico de AI: True Intelligence .
La IA fuerte se mueve hacia máquinas con autoconciencia, conciencia y pensamientos objetivos.
Aprendizaje automático (ML)
La programación clásica utiliza programas para crear resultados:
Computación tradicional
Datos + Programa de computadora = Resultado
Machine Learning utiliza los resultados para crear programas (algoritmos):
Aprendizaje automático
Datos + Resultado = Programa de computadora
"El aprendizaje automático es un campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programadas".
Arturo Samuel (1959)
Redes Neuronales (NN)
Uno de los descubrimientos más importantes de la historia es el poder de las redes neuronales (NN).
En las redes neuronales, muchas capas de datos llamadas neuronas se suman o se apilan una encima de la otra para calcular nuevos niveles de datos.
Nombres cortos de uso común:
- Red neuronal profunda DNN
- Red neuronal convolucional CNN
- Red neuronal recurrente RNN
Aprendizaje profundo (DL)
El aprendizaje profundo son algoritmos que utilizan redes neuronales para extraer datos de nivel superior.
Cada capa sucesiva utiliza la capa anterior como entrada.
Por ejemplo, la lectura óptica usa capas bajas para identificar bordes y capas más altas para identificar letras.
El aprendizaje profundo tiene dos fases:
1. Entrenamiento: Los datos de entrada se utilizan para calcular los parámetros del modelo.
2. Inferencia: el modelo "entrenado" genera datos de cualquier entrada dada.
La revolución del aprendizaje profundo
¡La revolución del aprendizaje profundo está aquí!
La revolución del aprendizaje profundo comenzó alrededor de 2010. Desde entonces, el aprendizaje profundo se ha utilizado para resolver muchos problemas "irresolubles".
Ejemplos
Redes neuronales convolucionales (CNN)
Las CNN profundas como ResNeta e Inception han reducido la tasa de error en la clasificación de ImageNet del 25 % en 2011 al 5 % en 2017.
ImageNet es una base de datos de imágenes organizada según la jerarquía de WordNet, en la que cada nodo de la jerarquía contiene cientos y miles de imágenes. ImageNet es un recurso útil para investigadores, educadores, estudiantes y cualquier otra persona apasionada por las imágenes.
WordNet es una base de datos léxica de relaciones semánticas entre palabras en más de 200 idiomas. Está organizado como una combinación de diccionario y tesauro, uniendo palabras en relaciones semánticas usando sinónimos, hipónimos y merónimos.
Redes neuronales recurrentes (RNN)
Los RNN están ayudando a crear partituras musicales y sonidos de instrumentos novedosos:
https://magenta.tensorflow.org/demos .
Historia de la IA
1950 | Alan Turing publica "Maquinaria informática e inteligencia" |
1956 | AI mencionado por primera vez por John McCarthy en una conferencia académica |
1957 | Primer lenguaje de programación para computación numérica y científica (FORTRAN) |
1958 | Primer lenguaje de programación de IA (Lisp) |
1959 | Arthur Samuel usó el término "Aprendizaje automático" |
1961 | Primer robot industrial (Unimate) en la línea de montaje de General Motors. |
1965 | ELIZA de Joseph Weizenbaum fue el primer programa interactivo que podía comunicar sobre cualquier tema |
1972 | Primer lenguaje de programación lógica (PROLOG) |
1997 | Deep Blue (IBM) vence al campeón mundial de ajedrez |
2002 | El primer robot limpiador (Roomba) |
2005 | El coche autónomo (STANLEY) gana DARPA |
2008 | Avance en el reconocimiento de voz (Google) |
2011 | Una red neuronal gana a los humanos en reconocimiento de señales de tráfico (99,46% vs 99,22%) |
2011 | Apple Siri |
2011 | Watson (IBM) gana Jeopardy! |
2014 | Amazon Alexa |
2014 | microsoft cortana |
2014 | El automóvil autónomo (Google) pasa un examen de manejo estatal |
2015 | Google AlphaGo derrotó a varios campeones humanos en el juego de mesa Go |
2016 | El robot humano Sofia de Hanson Robotics |