Inteligencia Artificial y los buscadores 2.0
La precipitada carrera de Google y Microsoft por lanzar un buscador con el que se pueda dialogar. En mi opinión se esta precipitando una laguna legal importante… la inteligencia artificial se fundamente en el entrenamiento de modelos…
Vamos a poner un ejemplo. IMC = peso (kg)/ [estatura (m)]2… si a esta formula le das unos valores obtienes un valor que te dice si estas muy flaco, normal o gordito es matemática pura aplicada… esto es muy fácil de programar o calcular.
Ahora imaginemos que la humanidad desconoce esta formula, pero la observación nos dice que una persona muy baja y con mucho peso está obesa… es algo de sentido común.., pues la inteligencia artificial es justo eso, meter en un modelo cientos, miles o millones de situaciones tipo que te hagan llegar a tomar una decisión por proporcionalidad, discriminación, estadística, etc, algo parecido al sentido común humano. Si a un programa le metemos los datos de cientos de personas, (peso y altura) y los resultados visuales sobre eso datos… (obeso, gordito, sobrepeso, normal, flaco etc, etc), la aplicación te dirá el resultado porque poco a poco va aprendiendo a tenor de unos valores y resultados tipo, cuando más valores y resultados más justo y eficiente serán los resultados, pero nunca serán tan fiables como una ecuación matemática comprobada al 100%
Dicho todo esto… si se ha entendido esto, la inteligencia artificial se fundamente en obtener tantos valores y resultados posibles como sean necesarios para la toma de decisiones. En el caso explicado sería absurdo más haya de un simple ejercicio práctico, pero hay casos donde obtener resultados es complicado a nivel programático o matemático… no existe una regla para saber si un indice bursátil va a subir o bajar… pero si entrenamos un modelo con cientos de miles de situaciones y sus valores lo que han hecho otros índices en situaciones similares, quizás el modelo aprenda a tomar decisiones de inversión ante ciertas situaciones o valores puntuales, los item y situaciones son tan grandes que sería muy complejo para el raciocinio humano tomar estas decisiones pero el poder computaciones y almacenacimiento de los ordenadores han dado al nacimiento de estas tendencias… que no son fiables pero si pueden ayudar si el modelo ha sido entrenado con miles de miles de datos… el big data y poder de computo es importante.
Otro ejemplo parecido sería la toma de decisiones antes fenómenos meteorológicos o predicciones… sirviendo el debata sobre si es preferible programar complejas situaciones o entrenar modelos… pues todo depende del contexto.
Ahora pensemos en chatgpt o los futuros buscadores de segunda generación google o bing o baduu que están por llegar… en principio van a intentar darnos resultados a nuestras peticiones directamente, algo parecido a un chat o conversación entre humanos… si tu les pides un resumen de un libro… te lo va hacer, si le pides una noticia te la va a dar, y si le pides el resultado de un problema es posible que lo intente…
El GRAN PROBLEMA, y es algo que también llegará, es la legalidad del entrenamiento del modelo…, como están entrenando ese modelo???, pues es muy simple… google, microsoft tiene un sistema que se entrena a diario con la cientos de millones de peticiones que se hacen a sus buscadores, si tu buscas X ahora mismo te van a ofrecer ciertos resultados y nosotros les entrenamos el modelo eligiendo el contenido más adecuado a nuestros intereses, y lo que están haciendo es ROBAR los contenido de esos resultados para semi trasformarlos ofreciendo cierta diferenciación sobre el original, mezclando o modificando palabras, etc, etc, etc. El modelo es absolutamente tonto sin un entrenamiento previo y unos resultados conocidos a unos valores o peticiones preexistentes… las personas les estamos entrenado el modelo y los resultados han sido y son generados por millones de personas que han mantenido, mantienen y crean contenidos a diario en la red.
Esto claramente va abrir un debate legal y ético…
Es muy fácil demostrar cuando intentas buscar algo muy puntual o específico… el modelo es muy tonto. Si le pides el resumen de un libro que nadie ha leído por ejemplo… osea los resultados se los estamos dando al modelo… y esto se le llama robar… robar de otra forma pero robar, el sistema y formato cambian pero la esencia es la misma. Si yo pillo una noticia o artículo de otra web y la pego en mi web… sin citar la fuente y atribuyéndome el documento como propio, es expoliar información, básicamente es lo mismo.
A nivel algorítmico si le pides una función o un algoritmo a la inteligencia artificial, en líneas generales estas inteligencias funcionan bien ante algoritmos muy sencillos y típicos, pero si le pides algo un pelín más puntual los resultados son del todo ineficientes y absurdos y curiosamente te responde con aires esto es así y es irrevocable… muy al estilo americano por supuesto.
Estas inteligencias han sido entrenadas ante peticiones buscando soluciones ya existentes que adaptan… si estas tienen errores serán arrastradas y eso solo en el mejor de los casos, dado que si sabes como funcionan pueden ser incluso manipulables.
En definitiva seguir estas líneas nos llevará a ser ineficientes, más tontos, más manipulables y con el tiempo hacer modelos más absurdos al entender la comunidad que sus esfuerzos no les compensan al ser expoliados y robados… por no hablar de las consecuencias legales y morales de todo esto.
Hablar de aplicar todo esto al marketing y publicidad online, con resultados robados sin pagar a terceros es lo que buscan… monopolizar absolutamente todo, aparte de entendernos y saber más de nosotros jugando con nuestros datos, usos, y un gran etc, es simplemente volvernos plastina amesable.
Tiempo al tiempo, pero posiblemente a nivel legal se atisben grandes problemas… dado que ya no hablamos de marcarnos con simples cookies… esto es algo más complejo y sensiblemente más complicado para la humanidad…