La humanidad siempre ha soñado con algún genio omnisciente y omnipotente que pueda asumir su carga de trabajo. Ahora, gracias al arduo trabajo de laboratorio de los científicos informáticos tenemos nuestra respuesta en inteligencia artificial que (si creemos en el bombo publicitario) puede hacer casi cualquier cosa que su empresa necesite…
Al menos en parte y en algunas ocasiones.
Sí, las innovaciones en IA son asombrosas.
Los ayudantes virtuales como Siri, Alexa o el Asistente de Google parecerían mágicos para un viajero en el tiempo de hace tan solo 10 o 15 años atrás.
Tu palabra es su comando y, a diferencia de las herramientas de reconocimiento de voz de la década de 1990, a menudo dan la respuesta correcta, si evitas preguntas de bola curva como cuántos ángeles pueden bailar en la cabeza de un alfiler.
Pero a pesar de toda su magia, las IA todavía dependen de la programación de computadoras y eso significa que sufren todas las limitaciones que retienen el código más peatonal, como las hojas de cálculo o los procesadores de texto.
Hacen un mejor trabajo al hacer malabarismos con los caprichos estadísticos del mundo pero, en última instancia, siguen siendo solo computadoras que toman decisiones calculando una función y determinando si algún número es mayor o menor que un umbral.
Debajo de todo el ingenioso misterio y los sofisticados algoritmos hay un conjunto de transistores que implementan una decisión SI – ENTONCES.
Con el ritmo de la IA en todas las industrias cada vez más fuerte, debemos comenzar a aprender a vivir con estos doce secretos oscuros de la inteligencia artificial.
El trabajo más difícil para un científico de Inteligencia Artificial es decirle al jefe que la IA ha descubierto lo que todos ya sabían.
Quizás examinó 10.000 millones de fotografías y descubrió que el cielo es azul. Pero si olvidó poner fotos nocturnas en el set de entrenamiento, no se dará cuenta de que oscurece por la noche.
¿Cómo puede una IA evitar las conclusiones obvias?
Las señales más fuertes en los datos serán obvias para cualquiera que trabaje en las trincheras y también serán obvias para los algoritmos informáticos que investigan los números.
Serán la primera respuesta que traerá al perro perdiguero y caerá a tus pies. Al menos los algoritmos no esperan una caricia.
Por supuesto, las buenas también se fijan en pequeñas diferencias cuando los datos son precisos.
Pero el uso de estos pequeños conocimientos puede requerir cambios estratégicos profundos en el flujo de trabajo de la empresa.
Algunas de las distinciones sutiles serán demasiado sutiles para que valga la pena perseguir. Y las computadoras seguirán obsesionadas con ellas.
El problema es que las señales grandes son obvias y las señales pequeñas pueden producir ganancias pequeñas o incluso inexistentes.
Si bien los primeros investigadores esperaban que el enfoque matemático de un algoritmo informático diera un aire de respetabilidad a la decisión final, muchas personas en el mundo no están dispuestas a rendirse al dios de la lógica.
En todo caso, la complejidad y el misterio de la Inteligencia Artificial facilitan que cualquiera que no esté satisfecho con la respuesta pueda atacar el proceso.
¿Estaba sesgado el algoritmo? Cuanto más misterio y complejidad hay bajo el capó, más razones para que el mundo sospeche y se enoje.
Los científicos han estado trazando algunos datos ruidosos y trazando líneas a través de los puntos durante cientos de años.
Muchos de los algoritmos de IA en el núcleo del aprendizaje automático hacen, precisamente, eso: toman algunos datos y trazan una línea a través de ellos.
Gran parte del avance proviene de encontrar formas de dividir el problema en miles, millones o tal vez incluso miles de millones de pequeños problemas y, luego, trazar líneas a través de todos ellos.
No es magia. Es solo una línea de montaje de cómo hemos estado haciendo ciencia durante siglos.
Las personas a las que no les gusta la IA y les resulta fácil hacer agujeros en sus decisiones se centran en el hecho de que, a menudo, no hay una teoría profunda o un andamiaje filosófico para dar credibilidad a la respuesta.
Es solo una estimación aproximada de la pendiente de alguna línea.
Todos los que han comenzado a estudiar ciencia de datos comienzan a darse cuenta de que no hay mucho tiempo para la ciencia porque encontrar los datos es el trabajo real.
La IA es un primo cercano de la ciencia de datos y tiene los mismos desafíos:
Es un 0.01% de inspiración y un 99.99% de transpiración sobre formatos de archivo, campos de datos faltantes y códigos de caracteres.
Algunas respuestas son fáciles de encontrar, pero las respuestas más profundas y complejas a menudo requieren cada vez más datos.
A veces, la cantidad de datos aumentará exponencialmente.
La IA puede dejarte con un apetito insaciable por más y más bits.
Al igual que los habitantes de la cueva de Platón, todos estamos limitados por lo que podemos ver y percibir.
Las IA no son diferentes. Están explícitamente limitadas por su conjunto de entrenamiento.
Si hay sesgos en los datos – y habrá algunos – la IA los heredará.
Si hay lagunas en los datos, habrá lagunas en la comprensión del mundo por parte de la IA.
La mayoría de los buenos juegos tienen un nivel final o un objetivo final. Sin embargo, las IA pueden volverse cada vez más complejas.
Mientras esté dispuesto a pagar la factura de la luz, seguirán produciendo modelos más complejos con más nodos, más niveles y más estados internos.
Quizás esta complejidad adicional sea suficiente para que el modelo sea realmente útil.
Tal vez en la próxima ejecución surja algún comportamiento sensible emergente.
Pero – tal vez – necesitemos una colección aún mayor de GPU funcionando durante la noche para capturar realmente el efecto.
Los investigadores de IA han estado dedicando más tiempo últimamente a tratar de explicar qué es lo que ella está haciendo.
Podemos profundizar en los datos y descubrir que el modelo entrenado se basa en gran medida en estos parámetros que provienen de un rincón particular del conjunto de datos.
A menudo, sin embargo, las explicaciones son como las que ofrecen los magos que explican un truco realizando otro.
Responder a la pregunta de por qué es sorprendentemente difícil.
Puede mirar los modelos lineales más simples y observar los parámetros, pero a menudo se quedará rascándose la cabeza.
Si el modelo dice multiplicar el número de millas recorridas cada año por un factor de 0.043255, quizás se pregunte por qué no 0.043256 o 0.7, o tal vez algo tremendamente diferente como 411 o 10.000 millones.
Una vez que esté utilizando un continuo, es posible que todos los números a lo largo del eje sean correctos. Es como el modelo antiguo en el que la Tierra estaba sentada sobre una tortuga gigante.
¿Y dónde estaba esta tortuga? En la espalda de otra tortuga. ¿Y dónde queda el próximo? Son tortugas hasta el final.
Puede dejar la altura fuera del conjunto de entrenamiento, pero es bastante probable que su programa de IA encuentre algún otro proxy para señalar a las personas más altas y elegirlas para su escuadrón de baloncesto. Tal vez sea la talla del zapato. O quizás algo más.
La gente ha soñado con que pedirle a una IA neutral que tome una decisión imparcial haga del mundo un lugar más justo.
Pero, a veces, los problemas están profundamente arraigados en la realidad y los algoritmos no pueden hacerlo mejor.
¿Obligar a una IA a ser justa es una solución real? Algunos intentan insistir en que las IA generan resultados con ciertos porcentajes predeterminados.
Ponen su pulgar en la escala y reescriben los algoritmos para cambiar el resultado.
Pero luego la gente comienza a preguntarse por qué nos molestamos con cualquier capacitación o análisis de datos si ya han decidido la respuesta que desean.
En general, estamos contentos con la Inteligencia Artificial cuando hay poco en juego. Si tiene 10 millones de imágenes para ordenar, se alegrará si alguna IA genera resultados razonablemente precisos la mayor parte del tiempo.
Seguro, puede haber problemas y errores. Algunas de las fallas pueden incluso reflejar problemas profundos con los sesgos de la IA, cuestiones que podrían ser dignas de una tesis de 200 páginas.
Pero las IA no son el problema. Harán lo que se les diga. Si se ponen quisquillosos y comienzan a generar mensajes de error, podemos ocultar esos mensajes.
Si el conjunto de entrenamiento no genera resultados perfectos, podemos dejar de lado el resultado quejumbroso pidiendo más datos.
Si la precisión no es tan alta como sea posible, podemos simplemente archivar ese resultado.
Las IA volverán a trabajar y harán lo mejor que puedan.
Los humanos, sin embargo, son un animal completamente diferente.
Las IA son sus herramientas y los humanos serán los que quieran usarlas para encontrar una ventaja y beneficiarse de ella.
Algunos de estos planes serán relativamente inocentes, pero otros serán impulsados de antemano por una malicia secreta.
Muchas veces, cuando nos encontramos con una IA mala, es porque es la marioneta de cuerda de algún humano que se está beneficiando del mal comportamiento.
Fuente: The Standard CIO