Buenos días a todos,
Ayer olvidé por completo que era miércoles y por tanto que era día de entrada. Desde el lunes uno de los puertos participantes en el piloto interportuario en el que estamos involucrados tiene estadísticas de movimientos por muelles y el testigo pasa a nosotros para cruzarlos con datos de demanda en cualquier ámbito y darles cálculos para todas sus terminales -14 terminales diferentes en este puerto-. Conforme el resto de los puertos vayan teniendo los datos correspondientes, repetiremos los cálculos para cada uno de ellos.
Así que he estado enfrascado en programación pura y dura no para resolver los cálculos, que es sencillo, sino para hacerlo de manera que en un solo paso pueda conseguir los de la Autoridad, los de sus puertos y los de sus terminales. Insisto: las soluciones deben liberar tiempo, no comprometerlo.
En cuanto a la inteligencia artificial, me había emplazado a ir compartiendo conceptos básicos que me encuentro que suelen desconocerse y dan lugar a malos resultados en las interacciones con sus herramientas. El primero de esos básicos es sobre los LLM, como lo es por ejemplo ChatGPT y todas las de su estilo.
Esta herramienta ha sido entrenada proporcionándole textos. Una vez que los tiene, se escoge uno y se eliminan ciertas palabras que el modelo debe predecir. Esta fase es la de su entrenamiento. Cuando termina, el modelo es tan bueno que puede escoger con qué palabra comenzará su respuesta a una petición, añadirla a ella y escoger la siguiente entonces. Lo hace tan bien y tan rápido que parece razonar. Pero no lo hace, no es determinista. Es un resultado aleatorio. Por eso cada vez que se le plantea una misma petición responde de manera diferente.
Cuando la petición se hace sobre algo sobre lo que no tiene entrenamiento porque no se le ha dado texto para hacerlo -corpus-, la calidad del resultado es mala. Y hacer peticiones a un modelo que no está entrenado para atenderla, por ejemplo por falta de datos, es algo que veo con frecuencia.
Y todos los modelos de lenguaje se han entrenado básicamente con un mismo conjunto de datos, los que recaba de contenido de internet la fundación Common Crawl.
Esto significa en la práctica que los modelos ya han llegado a su límite de entrenamiento en base a datos disponibles y se está trabajando en ideas para superarlo generando más datos, como por ejemplo, datos sintéticos -generados por IA interactuando entre sí-, el internet de las cosas -sensorización-, o acceso a datos sensibles -historiales médicos, etc-. Sobre esto hablaremos en algún momento.
Ya sé que la entrada ha quedado un poco larga pero me aseguro de no dejar nada atrás y poder avanzar en la siguiente.
¡Hasta la semana que viene!
El blog de Bases Portuarias recoge la actualidad de la firma junto con temas relacionados con el mundo de la empresa y su gestión en general. Se actualiza, semanalmente - intentamos que coincida con los martes o los míercoles-, con una nueva entrada.
En cuanto al contenido, eres libre de utilizarlo sin ningún tipo de restricción. Te agradeceríamos eso si, nos citases llegado el caso y colocases un enlace que apunte al texto original.
Eduardo Oviedo es el Director y fundador de Bases Portuarias. Emprendedor, cree en la tecnología como medio para resolver problemáticas de negocio. Estudió CC. Empresariales y tiene un Master en Transporte y Gestión Logística por la Universidad de Oviedo. Ha trabajado en las Autoridades Portuarias de Barcelona y de Gijón así como consultor.