El blog de Gunner!!!

Confesiones/crónicas de un internauta asombrado.

31. octubre 2025 09:59
by Gunner
0 Comentarios

Inteligencia Artificial: Emula/Crea tu propio “JuntaGPT”!!!

31. octubre 2025 09:59 by Gunner | 0 Comentarios

Quien domine la Inteligencia Artificial dominará el futuro, por ello les traigo el último artículo del año y último reto que les propongo - por ahora -. Recomiendo que lean atentamente la propuesta que les presento, a buen seguro les sorprenderá. En él,  les enseño a crear su propia IA personalizada gracias al manual que, merced al Instituto Andaluz de Administración Pública que ha contado conmigo en el último número de su revista digital, redacté para la ocasión.

En la publicación del artículo, el IAAP insertó un "disclaimer" que no alcancé a tener en cuenta al enviárselo para su difusión. Por el carácter de público al que esta dirigida su revista y por tratarse de equipos en entornos controlados no advertí que no puede instalarse en ellos sin autorización cualquier tipo de software por muy útil que este pudiese ser. En cualquier caso era totalmente pertinente advertirlo. En este post, les adjunto además un interesante anexo - que suprimieron en la versión publicada - en el qué pueden comprobar los sorprendentes resultados que es posible obtener al interrogar adecuadamente a una IA, sobre si la administración pública hace uso de ella encarando correctamente este nuevo paradigma del tratamiento de la información. Reciclarse y adquirir nuevas habilidades es absolutamente imprescindible como parte del bagaje y herramientas profesionales de cualquier empleado de la Administración pública.

Sin más, pasen y lean... seguro que no les dejará indiferente.

          

Introducción.

JuntaGPT es el asistente conversacional basado en inteligencia artificial generativa que recientemente ha presentado la Agencia Digital de Andalucía (ADA) para la Junta de Andalucía. Está diseñado para uso interno por los empleados públicos de la administración autonómica andaluza con el objetivo de mejorar la productividad y agilizar procesos administrativos.

Entre sus características principales están:

  •  Permitir redactar correos electrónicos, resumir documentos largos, analizar normativas, elaborar esquemas y presentaciones, y responder consultas sobre más de 400 procedimientos administrativos específicos de Andalucía.
  •  Utiliza el LLM (modelo de razonamiento) abierto “Gemma 3”, alojado en el gran Supercomputador Hércules del Centro Informático Científico de Andalucía (CICA).
  •  Opera completamente offline en la red interna de la Junta, garantizando que los datos no salgan de nuestro entorno institucional y, a diferencia de soluciones comerciales, debe cumplir con el Reglamento Europeo de IA y estándares éticos.

Fue lanzado en junio de 2025, está en fase inicial de despliegue empezando por el departamento de analítica de datos de la Agencia Digital de Andalucía - ADA y pretende expandirse progresivamente a otras áreas. Es sin duda una de las primeras herramientas de este tipo en nuestra administración autonómica, y a buen seguro marca un hito en la digitalización del sector público.

Pero… y aquí vienen los peros… el proceso está siendo, lento, complejo, y sujeto a múltiples variables y restricciones técnico-Jurídicas. En cualquier caso será complicado que permita IA’s especializadas o de nicho, lo cual supone un serio revés para todos aquellos que deseen un sistema adaptado a sus necesidades. Tardará aún tiempo en estar 100% operativo.

¿No Les resultaría útil tener ya una inteligencia artificial desarrollada a medida, que se ejecute en vuestros propios equipos, y basada en los datos particulares de su actividad? ¿No les sería beneficioso para su organismo/consejería\departamento disponer en este momento de una herramienta diseñada específicamente para responder a sus requerimientos y alimentada con datos propios? Y si además se ejecutase localmente, offline,  en vuestros propios PC’s y sin riesgo de fuga de datos? Suena a magia, verdad.

En este articulo y a título experimental os describo una herramienta que os lo permitirá. Está al alcance de cualquiera y permite usar los modelos de razonamiento más comunes. A buen seguro más de uno de ustedes ya está considerando esa posibilidad, pero les da miedo enfrentarse a las complejidades técnicas asociadas… ¡pues bien aquí tienen cómo, siempre bajo vuestro control, sin el peligro de subir contenidos a la nube y sin la necesidad de usar un supercomputador de la potencia de nuestro Hércules de CICA!

Por último, en el anexo y como ejercicio ejemplifico el uso de este software de IA con un posible caso de uso simulando el análisis/valoración de un pliego de suministro/servicios de un sistema TIC para y en las posibles ofertas presentadas por los licitadores que se pudiesen haberse presentado al concurso. Tarea por otra parte muy común en cualquier administración y a la vez de enorme complejidad, por lo que cualquier “ayuda” tecnológica siempre es de agradecer.

Instalando el software.

Hay varias herramientas que permiten la funcionalidad propuesta, pero tras probar varias, he elegido una al alcance de todos y ofrece un balance complejidad/utilidad lo suficientemente equilibrado como para no asustar a nadie. La herramienta se llama GPT4ALL (“GPTParaTodos”, es OpenSource y disponible para varios sistemas operativos) -. Comencemos.

Accedemos a la web de la herramienta seleccionada:

Es importante usar la web de Nomic, el desarrollador original, pues los “enlaces patrocinados” a veces esconden alguna que otra sorpresa - ¡me entienden verdad! -.

Pulsamos “Download for Windows”.

Abrimos el instalador desde la carpeta de descargas.

Nos aparece la siguiente pantalla en la que pulsamos sobre “Siguiente”.

Durante la instalación, y para tener los ficheros necesarios ordenados y localizados en una única ubicación identificable en vez de en varias carpetas dispersas en el disco duro, hemos creado previamente una carpeta “C:\GPT4All” al efecto.

La seleccionamos como carpeta destino - es cuestión personal, puro tema organizativo para tener claro dónde encontrar los múltiples ficheros que necesitan tanto el motor de razonamiento junto con los datos con que queremos alimentar nuestra IA -.

Volvemos a pulsar “Siguiente” y nos muestra la siguiente pantalla.

 

Aceptamos el acuerdo de licencia y “Siguiente”.

Nuevamente “Siguiente”.

Y finalmente sobre “Instalar”.

Hasta finalizar el proceso.

 

Luego “Siguiente” y “Finalizar”. Con ello tenemos nuestro software de IA instalado.

Procederemos ahora a configurarlo.

Configurando el Software.

Pulsamos sobre el icono de nuestro escritorio.

 Es elección de cada uno, pero en la pantalla de inicio solicita si queremos colaborar recopilando datos para mejora del producto.

 

Bien, llegados a este punto tendremos a continuación la pantalla principal del aplicativo. No siendo este documento un tutorial/curso sobre IA, dejo como ejercicio entender sus conceptos básicos de dicha tecnología para así poder trasladarlos sobre las opciones que ofrece la herramienta que estamos mostrando.

Vayamos pues al grano y que cada uno de ustedes investigue todas las posibilidades que ofrece el aplicativo.

Lo primero, y si lo ven necesario, es traducir el interfaz del usuario al castellano. Para ello en “Settings” modificamos el parámetro “Language and Locale” a “es_MX”. 

Modificaremos también la ruta de descarga de los modelos de razonamiento que utilizaremos. Elegiremos una subcarpeta de la carpeta que previamente también habremos creado en la ruta que indiqué en el paso previo de la instalación del producto. En nuestro caso “C:\GPT4All\Models”.

Pulsamos entonces sobre “Seleccionar carpeta”. 

Ahora seleccionaremos el modelo de razonamiento que vamos a utilizar para interrogar a nuestra IA. El modelo de razonamiento es el tipo de inteligencia/red neuronal que se va a utilizar para interpretar nuestras preguntas/prompts. Normalmente vienen ya entrenados a partir de extensas bases de datos y/o fuentes de conocimiento.

Pulsamos sobre “+Agregar modelo”.

Podemos elegir el modelo de razonamiento que deseemos, pero hay que tener en cuenta que GPT4All nos ayuda analizando la máquina/PC sobre la que se ejecuta e indica cuales de ellos son o no recomendados en función de los recursos hardware disponibles, explicando en su caso el posible motivo por el que pueda descartarlo.

En nuestro caso, elegiremos DeepSeek dado que se trata de un modelo de razonamiento sin restricciones de uso, con unos requerimientos de RAM razonablemente moderados y de una adecuada complejidad/profundidad de razonamiento. Pulsamos sobre “Descargar”: 

Nota:

  • Dependiendo del modelo de razonamiento utilizado las respuestas a nuestros prompts pueden variar sensiblemente.
  • Es posible descargar varios modelos de razonamiento y alternar su uso.
  • Es posible usar un modelo de razonamiento comercial mediante la opción “Remote Provider”, pero implica tener cuenta en ellos y por supuesto un coste!!!

Con ello comenzará su descarga.

Una vez finalizada la descarga del modelo, nos ofrece la posibilidad de eliminarlo para poder cambiarlo por otro, pero ES OBLIGATORIO disponer de al menos un modelo de razonamiento, sino tendríamos “tendríamos motor pero no cerebro”.

Llegados a este punto, tenemos configurado nuestro software de IA y seleccionado un modelo de razonamiento. Procedamos ahora a indicarle donde almacenar ficheros de documentos que pretendemos añadir a la base de datos de conocimiento de nuestra IA y sobre los cuales queremos/podremos interrogar a nuestra herramienta.

Usaremos la opción “Docs Locales” pulsando sobre “+Agregar colección de documentos”.

Le daremos un nombre y seleccionaremos una carpeta donde almacenar los documentos que ingestaremos en nuestra IA. Dicha carpeta la habremos creado previamente en el recurso indicado en puntos anteriores.

En nuestro caso “C:\GPT4All\Local-IA-Data01”. Observen que he añadido la coletilla “01” puesto que podríamos tener varios DataSet en función de las/nuestras necesidades. Y pulsaríamos sobre “Crear colección”.

Obtendríamos el siguiente resultado.

 

Se pone ahora la cosa interesante. … Tenemos el software, el LLM de razonamiento, la carpeta de datos tener en cuenta en nuestras consultas, y ahora vemos cómo proceder a usar el sistema conjunto del que disponemos.

Chateando con la IA.

Pulsamos sobre “Chats” y nos aparece la siguiente pantalla.

Vemos en la parte superior de la pantalla que no hay ningún modelo de razonamiento cargado. Pulsaremos sobre “Elige un modelo”, seleccionaremos el disponible, y pulsaremos sobre “Cargar . (predeterminado) ->” .

Ya podríamos consultar a la IA, pero serían preguntas genéricas pues no le hemos indicado que incluya en sus respuestas los/nuestros documentos que queremos incorporar.

Para ello pulsaríamos sobre “DocumentosLocales”.

Y pulsamos a continuación sobre el DataSet que creamos en el paso previo.

Llegados a este punto, tenemos nuestra IA, el modelo de razonamiento deseado y le hemos dicho al software que incorpore a las respuestas la información incluida en la carpeta que elegimos.

En fin el resto, … ¡es tema vuestro! Sed imaginativos, alimentad a vuestra IA con datos coherentes al objeto que estéis persiguiendo y disfrutad de los resultados!!!

Notas adicionales.

  • Dependiendo del dispositivo que utilicemos, el tiempo de respuesta puede variar. Recomiendo una GPU avanzada o un procesador especializado. En mi caso:

  •  Es obvio que necesitamos añadir un conjunto suficiente de documentos/datos al DataSet que vamos a utilizar.  
  •  He de indicar que en función del dispositivo de cómputo, que utilicemos estos tardarán en indexarse en la base de datos de conocimiento de nuestra IA. Recomiendo una GPU avanzado o un procesador especializado.
  •  GPT4All realiza un proceso de indexación/aprendizaje previo de los documentos con los que la alimentamos para incorporarlos a su base de datos de conocimiento. Podemos observar el proceso/porcentaje de indexación visitando desde nuestra aplicación el DataSet que estemos utilizando tal y como se muestra en la pantalla siguiente.



  • Verán en la anterior imagen el porcentaje de trabajo de indexación completado, el fichero que está procesando en cada momento y, en el administrador de tareas del equipo, el uso de CPU durante ese proceso. Comprobaran que indexar los contenidos requiere mucha potencia de cálculo, es un proceso lento y con gran utilización de recursos del sistema – tal y como ocurriría si un ser humano tuviese que aprender/realizar una tarea similar -. Les recomiendo paciencia o un buen equilibrio en el conjunto CPU/GPU\Hardware de IA. Debemos esperar a que termine el proceso de indexación para disponer del conjunto de datos al completo.
  •  Por último, y no menos importante, estamos usando una herramienta software, no una varita mágica. Es necesario refinar la pregunta/prompt que se le haga a la IA para obtener los resultados deseados. “Un buen prompt => una buena respuesta”, … pero cómo definir un buen prompt podría ser objeto de otro artículo.

Despedida.

De momento creo que ya han tenido bastante. No se asusten, a mi me ha costado tiempo investigar, dar con y entender “la herramienta”. Es sencilla pero muy útil, ya lo verán. Ustedes gracias a este documento tienen ya la mayor parte de ese camino andado.

¡No tengan miedo, arrójense a la aventura! No tienen nada que perder y sí mucho que ganar. Se sorprenderán cuando empiecen a obtener los primeros resultados.

Un saludo, Damas y Caballeros!!!

Referencias:

 

Anexo – Análisis ofertas Licitación Proyecto TIC.

Como caso de uso de una plataforma similar a la que les he documentado, les muestro los resultados que como demostración experimental obtuve usando GPT4All. Simulé licitación de un proyecto TIC junto con las posibles ofertas que habrían presentado los posibles licitadores.

Para ponerlo en práctica, alimenté a la IA con documentos PDF en los que se describe someramente lo que se pretendía contratar - tipo memoria justificativa o PCAP - junto con algunos documentos simulando las ofertas presentadas por cuatro posibles licitadores. También os muestro en azul los prompt que utilicé para interrogar a la IA. No pude sino esbozar una sonrisa de sorpresa y de júbilo al leer la respuesta y no dejo de preguntarme qué habría pasado si hubiese afinado las preguntas, hubiese seguido interrogándola y/o hubiese usado casos reales con documentos reales ¡Quién sabe hasta donde se podría llegar! No quise investigar más, simplemente me sirvió como ejercicio. Ahí lo dejé.

Prompt I:

"Actúa como un analista técnico de informática. Compara los pliegos de la licitación del Proyecto TIC  “Licitación Sistema Informático” considerando las ofertas de las empresas “Licitador I”, “Licitador II”, “Licitador III” y “Licitador IV”. Haz un resumen de 10 puntos de las diferencias entre todas. Está dirigido a las personas encargadas de decidir cuál es la mejor oferta

1.      Enfoque Técnico:

a.      “Licitador I”: Propone soluciones basadas en Microsoft Azure Active Directory (AAD) con énfasis en integración cloud.

b.      "Licitador II" Utiliza su propia suite de herramientas, incluyendo HP Enterprise Services y OpenLDAP para un enfoque más personalizado.

c.      "Licitador III" Basa su propuesta en tecnología de open source como LDAP y Kerberos, destacando la adaptabilidad a entornos heterogéneos.

d.      "Licitador IV" Ofrece soluciones basadas en Microsoft Active Directory con herramientas de gestión avanzada.

2.      Capacidad de Personalización:

a.      “Licitador I”: Alta personalización mediante extensiones específicas para necesidades empresariales.

b.      "Licitador II" Ofrece módulos opcionales que permiten adaptar la solución a las especificaciones del cliente.

c.      "Licitador III" Enfoque en soluciones estándares con menos opciones de personalización, pero destacando la escalabilidad.

d.      "Licitador IV" Personalización avanzada mediante integración con sistemas legados y desarrollos específicos.

3.      Integración con Sistemas Existentes:

a.      “Licitador I”: Excelente en integración con Microsoft (Office 365, Azure).

b.      “Licitador II” Ofrece herramientas para una suave integración con sistemas de terceros y legacy systems.

c.      "Licitador III" Especialista en entornos heterogéneos, incluyendo dispositivos móviles y diferentes plataformas.

d.      "Licitador IV" Buena capacidad para integrar con aplicaciones empresariales como SAP.

4.      Escalabilidad y Rendimiento:

a.      “Licitador I”: Diseñado para entornos cloud escalables, ideal para empresas en crecimiento.

b.      "Licitador II" Ofrece soluciones robustas que manejan grandes volúmenes de usuarios y dispositivos.

c.      "Licitador III" Enfoque en alta disponibilidad y rendimiento con tecnología distribuida.

d.      "Licitador IV" Solución probada en entornos empresariales medianos a grandes.

5.      Seguridad:

a.      “Licitador I”: Ofrece integración avanzada de Azure Security, incluyendo MFA (Multi-Factor Authentication).

b.      "Licitador II" Propone soluciones con cifrado fuerte y controles RBAC (Control de Acceso Basado en Roles) robustos.

c.      "Licitador III" Enfoque en seguridad cibernética integrada, cumpliendo con normativas como GDPR.

d.      "Licitador IV" Ofrece implementación segura con auditoría incluida.

6.      Enfoque en la Implementación:

a.      “Licitador I”: Propone un enfoque as-a-service, manejando gran parte del despliegue y mantenimiento.

b.      "Licitador II" Ofrece una solución más hands-on, trabajando estrechamente con el cliente para implementar cambios específicos.

c.      "Licitador III" Enfoque en la rápida implementación con metodologías ágiles.

d.      "Licitador IV" Propone un enfoque colaborativo, involucrando al cliente desde etapas tempranas.

7.      Soporte y Mantenimiento:

a.      “Licitador I”: Ofrece SLAs de nivel de servicio robustos, con soporte 24/7.

b.      "Licitador II" Propone contratos de mantenimiento flexibles con diferentes niveles de soporte según las necesidades del cliente.

c.      "Licitador III" Soporte local y en tiempo real, aprovechando su red propia para garantizar la disponibilidad.

d.      "Licitador IV" Ofrece un modelo de asistencia técnica especializada con accesos directos a expertos.

8.      Costo:

a.      “Licitador I”: Modelo basado en suscripción, con costos variables según el tamaño del entorno.

b.      "Licitador II" Costos fijos elevados inicialmente, pero posibles reducciones si se contratan servicios adicionales.

c.      "Licitador III" Ofrece tarifas competitivas, especialmente para implementaciones medianas y grandes.

d.      "Licitador IV" Modelo de costo transparente con facturación anual basada en licencias.

9.      Servicios Adicionales:

a.      “Licitador I”: Incluye consultoría adicional y formación del personal como parte del paquete premium.

b.      "Licitador II" Ofrece servicios de migración, auditoría y asesoramiento estratégico.

c.      "Licitador III" Propone soluciones de movilidad integradas como valor agregado.

d.      "Licitador IV" Incluye soporte para la implementación de políticas de seguridad avanzada.

10.  Referencias y Experiencia:

a.      “Licitador I”: Amplia experiencia en entornos cloud, con referencias en sectores financieros y de telecomunicaciones.

b.      "Licitador II" Historial probado en grandes empresas multinacionales.

c.      "Licitador III" Expertise en implementación para operadores de telecomunicaciones y gobierno.

d.      "Licitador IV" Experiencia comprobada en entornos empresariales nacionales e internacionales.

Conclusión:

La elección ideal dependerá del balance entre costo, necesidades específicas de personalización, nivel de soporte requerido y la importancia de integrarse con sistemas existentes.

Prompt II:

Compara esas conclusiones con la "Memoria Justificativa consolidada para del Proyecto TIC  “Licitación Sistema Informático” . Valora cada oferta y determina qué oferta es la más adecuada. Formato tabla

Evaluation Table: Vendor Comparison Based on "Memoria Justificativa Consolidada"

Vendor

Evaluation Criteria from Memoria Justificativa

Strengths of the Offer

Weaknesses of the Offer

Overall Value

“Licitador I”

Technical Expertise, Cost Efficiency

Strong technical expertise in directory services; competitive pricing.

Limited local presence and customer support.

High

“Licitador II”

Innovation, Scalability

Cutting-edge solutions; highly scalable systems.

Higher costs compared to competitors.

Moderate

“Licitador III”

Strategic Partnerships, Local Presence

Strong strategic partnerships; extensive local presence and support network.

Limited innovation in recent IT systems service offerings.

High

“Licitador IV”

Customization, Flexibility

Highly customizable solutions; flexible deployment options.

Lower reputation in the market compared to other vendors.

Moderate

Key Considerations:

  1. Technical Expertise: “Licitador I” and “Licitador III” are strong contenders due to their technical expertise and local presence.
  2. Cost Efficiency: “Licitador I” offers competitive pricing, which is a significant advantage for budget-conscious organizations.
  3. Innovation & Scalability: “Licitador II” stands out with innovative solutions but comes at a higher cost.
  4. Strategic Partnerships: “Licitador III” strong partnerships and local support make it an attractive option despite its limited innovation in recent offerings

Conclusion:

Based on the evaluation criteria from the " Memoria Justificativa consolidada para del Proyecto TIC  “Licitación Sistema Informático," “Licitador I” emerges as the most appropriate choice due to its balance of technical expertise, competitive pricing, and alignment with organizational needs. However, “Licitador III” is a close contender due to its strategic advantages and local support.

Fin.

    

¿Sugestivo artículo, verdad? ¿Cómo se han quedado?... Me despido de ustedes confiando en que la "simplicidad" de la solución propuesta les anime a adentrarse en ese mundo al que irremisiblemente nos acercamos, donde el uso de herramientas digitales para ciertos procesos será tan imprescindible como una mente lúcida para sacarles partido. Mas que temer a la IA, esta es todo un reto desafiante para aquellos a los que nos gusta innovar. ¿Y ustedes? ¿Son de aquellos a los que les gusta verlas venir o prefieren sumarse al carro, reciclarse y crecer?

Los esfuerzos en mejorar la automatización de ciertas tareas y el uso de herramientas para la toma de decisiones es algo que la Agencia Digital de Andalucía está promoviendo no sin cierta dificultad. Son tecnologías complejas y que hay que entender cómo sacarles provecho/encajar en los planes estratégicos de cualquier entidad. Juega en su contra los constantes cambios que experimenta ese mundo pero, ,.. ¡qué remedio! ... es algo innato en el ADN de los que nos dedicamos al mundo de las TIC!!!

Un saludo, Damas y caballeros.

P.d.: Aquí tienen el enlace a la publicación oficial en la web del IAAP. Como siempre, votos (abajo, pulsando sobre las estrellitas) y comentarios pulsando en el enlace azul cerca de la cabecera/título del artículo y luego desplazándose hasta el pie de página, gracias.

Cool💻 🖱️

9. mayo 2021 17:20
by Gunner
0 Comentarios

Minando con cabeza!!!

9. mayo 2021 17:20 by Gunner | 0 Comentarios

Tener iniciativas, asumir responsabilidades y liderar proyectos tienen su precio. Implica dedicar tiempo, dedicar esfuerzo y poner ganas y empeño en llevar buen puerto las tareas en las que te implicas. Por otra parte, si además tienes que coordinar y coordinarte con otras personas para cumplir con la palabra dada o con la responsabilidad asumida... indudablemente tiene un coste, y ese coste acaba pasando factura... factura a nivel físico y emocional, mis ilustres (y no tan ilustres) lectores.

Pero también tiene su recompensa, he de reconocerlo. A veces éxito, a veces reconocimiento, o a veces algo tan sencillo (o no tanto) como simplemente sentirte orgulloso del resultado final del proyecto, viendo colgados sus resultados en las paredes de tu vida... en las paredes de tu historia.

En el caso que nos atañe y que os ha traido aquí, las horas dedicadas a estudiar, documentar y dar forma a la temática de la que pretendía hablar se han visto recompensadas con su aprobación y publicación en EnRed@2.0, la Revista digital del Empleado de la Junta de Andalucía, que ha considerado útil difundirlo (de nuevo todo un honor para mí).
 
Sin más, pasen y lean el artículo.

   

Minería de datos: ¿Qué es? 

Hace tiempo – cada vez menos, por aquello del cambio climático y la sobreexplotación – veíamos salir, polvorientas y oxidadas, vagonetas y más vagonetas cargadas con pilas de un negro material llamado carbón (o antracita en su versión más pura). Tras ellas, horas después, unas figuras, blanquecinas, agotadas, cansadas, casi famélicas y cubiertas de polvo, salían lenta y apesadumbradamente de esos agujeros oscuros que los conducían al corazón de la madre tierra para extraerla obtener el preciado material que alimentaba los motores, calderas y maquinaria que movía la industria y la economía de su época. 

Pues bien, damas y caballeros, esa escena tan costumbrista es precisamente la minería de datos, traslada, salvando las distancias, al moderno mundo digital, el mundo de la cuarta revolución industrial. Si, señores, ni más… ni menos. 

Desgranemos ese párrafo trozo a trozo. 

En el mundo actual, queramos o no, la información ES poder. Somos unos 46 millones de ciudadanos en España, unos 8,5 millones en Andalucía. Cada uno de nosotros diariamente a lo largo de nuestras interacciones sociales está generando una huella digital bastante numerosa: Interacciones en las redes sociales, interacciones bancarias, interacciones laborales, interacciones sanitarias, interacciones políticas, etc, etc, etc. (he enumerado como poco 5 tipos de interacciones). 

Hagamos números: 5 tipos x 365 días x 8,5M de ciudadanos = 15.512,5 millones de interacciones tipo en Andalucía/año como poco, y eso sin considerar que cada tipo de interacción a su vez genera una enorme variedad de información asociada. Dicha información acaba de una manera u otra almacenada en los sistemas informáticos de las distintas entidades con las que interactuamos. En resumen, una montaña de datos que procesar. 

Esas montañas de antes son ahora los terabytes de datos a procesar que sabemos esconden información fundamental acerca de aspectos importantes y trascendentes para el abanico de múltiples aspectos que interesan a la sociedad. 

Los mineros de antaño, polvorientos y tristes, son ahora jóvenes imberbes con aspecto de frikis y ojos saltones, apasionados de la tecla y blancos de no tomar el sol, todo el día delante de una pantalla de ordenador. Las vagonetas de entonces, encargadas de transportar el material extraído, son ahora los sistemas informáticos, computadores y los algoritmos encargados de procesar las enormes bases de datos donde se almacena la información en bruto. 

La historia se puede adornar y completar más, pero para no extendernos ni introducir excesiva complejidad en este artículo (les recomiendo la excelente entrada al respecto de la Wikipedia), ciñámonos a una visión más terrenal y pragmática del tema. 

Punto de vista del ciudadano. 

A estas alturas de la vida estoy absolutamente seguro de que todos sabemos que para acceder y utilizar determinadas herramientas de la vida actual debemos dar consentimiento para que determinados sistemas informáticos registren lo que se denomina nuestra “huella digital”. Aún quedan algunas personas, reductos contumaces de una vieja sociedad, que se resisten a concederlo, pero indefectiblemente, tendrán que hacerlo si quieren usar y/o disfrutar de los servicios que la moderna vida digital ofrece (Sanidad, cultura, banca, viajes, prensa, compras, etc).Tanto aceptarlo como no aceptarlo ya indica algo, es registrable, medible y estatizable. 

Es sin duda de utilidad para el ciudadano permitir la trazabilidad de sus registros digitales – y lo sabe -. Permite personalizar los contenidos que se les ofrece en función del objetivo que persiguen, y permite a los sistemas informáticos prever ciertas necesidades del mismo. Un ejemplo típico (poner ejemplos permite ilustrar y desmitificar en la práctica el marco teórico/real de algunos conceptos): El hecho estadístico de que en determinadas zonas de costa disfruten de su jubilación personas de cierta edad, permite a los sistemas informáticos de control de stock (“estocaje” o "almacén" son los términos más adecuados, pero… intentemos usar el castellano, por favor) inferir una mayor demanda de medicamentos para el tratamiento de las enfermedades asociadas a dichas zonas, con lo que es posible gestionar con antelación las reservas y/o futuras demandas de ellos. Ello redunda y es percibido como una mejora en la calidad de la atención médica al ciudadano. 

A ese mismo ciudadano le consta y tiene la certeza de que cualquiera de sus interacciones sociales deja tras de sí un rastro digital. Sabe de igual forma que es necesario gestionarlo, pero lo que más le preocupa es la confidencialidad del uso y destino de ese rastro, es decir que la información que se registre acerca de su vida y sus intereses sea utilizada tan solo en el ámbito de objeto que se esté registrando, y que dicha información, en muchos aspectos “sensible” no acabe en manos de quien pueda hacer un uso privilegiado de ella si su consentimiento. Tengámoslo muy en cuenta!!! 

Por otra parte, en casi todos los casos, los ciudadanos están dispuestos a ceder gratuitamente el uso de sus huellas digitales siempre que se realice anonimizando adecuadamente los parámetros registrados. Todos en alguna ocasión hemos participado en una encuesta digital, pero, sin duda, hemos respondido con más sinceridad y veracidad cuando no se adjunta a ellas nuestros nombres, apellidos, etc, en cuyo caso seguro que ha cruzado por nuestra mente aquello de “¿quién leerá esto?”, “¡tengo que quedar bien!”, lo cual inevitablemente trastoca la “objetividad” (ojo a las comillas, las trataré luego) e imparcialidad de los resultados. 

El punto de vista de la administración. 

Los organismos especializados en tratamiento de datos estadísticos tienen la capacidad y medios necesarios para procesar la información generada. No está muy lejos del alcance de sus actividades el generar los resultados consecuentes del proceso de minado.  

En el artículo “Big Data en la Administración Pública”, y en la línea de lo que he insinuado antes, compañeros de la AA.PP. andaluza avanzan cómo se abre una nueva era de cara a la mejora en la prestación de servicios elaborando modelos predictivos y patrones de comportamiento. 

¿En qué se traduce todo ello para la AA.PP? Considero al menos tres aspectos: El político, el técnico y el humano. 

El político. 

El objetivo de los políticos es o debería ser, conseguir mejorar el estado del bienestar de sus administrados – Una frase muy corta, pero cargada de significado -.  

Y, ¿Cómo se consigue ese objetivo? Pues muy fácil… ¡tomando sabias decisiones! 

Y ¿Cómo se toman sabias decisiones?… Damas, caballeros, ¡ahí está la cuestión!. 

Tienen a su alcance las herramientas tecnológicas para la gestión de toma de decisiones basadas en el procedimiento de minería de los datos que ya tienen registrados en sus sistemas informáticos. Ciertamente son sistemas complejos tanto de implementar como de explotar, pero para ello precisamente cuentan con el asesoramiento y personal técnico de los diversos organismos que recopilan la información. Sin embargo, es necesario una apuesta firme por ello y por ellos. 

Si la toma de decisiones con inteligencia y fundamento (término este último algo culinario pero que bien entendido resulta de lo más útil) se aprovecha de los recursos ya disponibles, fruto de los análisis y resultados obtenidos de los procesos de ingeniería aplicados, todos estamos seguros de que la sociedad percibirá la calidad del servicio que las instituciones públicas les están ofreciendo, lo cual se traduciría, a buen seguro, en un posterior respaldo del electorado. 

Eso sí… corresponde al “Político” definir los objetivos, las estrategias, y los enfoques que se les quiera dar al uso dichas herramientas digitales, pues como toda herramienta, carece de utilidad si no se emplea para corregir, reparar y/o mejorar las necesidades del ciudadano. El dato en sí no tiene valor, pero sí su interpretación. 

Pero en el gráfico siguiente ,tomado de un interesante informe, podemos ver algunos ejemplos del tipo de datos que se podría manejar. 

El técnico. 

La infraestructura tecnológica que se necesita para el procesamiento de las enormes cantidades de información necesarias para extraer conclusiones de ellos varía en función de los tamaños de las bases de datos a procesar, de la complejidad de las consultas que se pretendan realizar, así como de la velocidad con la que se pretenda elaborar las respuestas. 

La elaboración de patrones predictivos a partir de los enormes volúmenes de datos e información almacenada requiere de herramientas especializadas, pero ya las tenemos (RapidMiner, Orange, Kmine, SAS ó IBM Cognos-Analitics), algunas son herramientas de pago, pero otras son software libre con lo cual tan solo debemos tomar la decisión de dotarnos de ellas y de la la infraestructura necesaria para su ejecución.  

En Andalucía tenemos el entorno ideal para ello en el Centro Informático y Científico de Andalucía (CICA), que dispone de recursos y sistemas de computación de alto rendimiento ideales para ello. Un centro bien dotado, en claro proceso de crecimiento y con personal altamente cualificado para proveer de la tecnología software y capacidad de procesamiento imprescindibles para acometer las tareas con solvencia y sin que se les atragante el volumen de información a procesar. 

El humano. 

Big Data y Minería de datos son una tecnología novedosa y bien fundamentada, pero tras ella están las personas que deben aplicarla y entenderla. Son sin duda herramientas comunes a nivel empresarial que rinden claros beneficios económicos a las estructuras y entidades que se nutren de ella.  

Pero es necesario entenderlas, comprenderla e imaginar su potencial alcance. Para ello hay dos opciones: Contratar inteligencia especializada en el mercado externo, o bien – es mi apuesta – formar adecuadamente a los gestores de eso tan comúnmente denominado como “la cosa pública”. 

A lo largo de los artículos que ya he publicado vengo insistentemente defendiendo la capacidad humana con la que ya cuenta la administración pública. ¿Quién mejor que los propios gestores de las AA.PP. y su personal adjunto para identificar las necesidades de la administración y sus fuentes de información? ¿Quiénes mejor que ellos mismos para entender y aplicar los resultados que la minería de datos produce? 

Muchos de nosotros – mentes inquietas donde las haya – estamos deseosos de contribuir al uso de las nuevas tecnologías en la administración pública. Para ello es sin duda necesario un programa de formación adecuada. Pero más aún a hacer entender a los gestores y políticos que si queremos transformar el modelo productivo Andaluz, tal y como se pregona a los cuatro vientos, es necesario utilizar las herramientas que precisamente se están usando para transformar el mundo (o al menos entender cómo se comporta), después el uso que se haga de esas herramientas está en sus manos. 

Es necesario entender que la inversión en cultura y formación a medio plazo redunda en un mejor aprovechamiento de los recursos de cara a la administración de los intereses del ciudadano. 

Cabeza??? 

¿Qué es la cabeza?… ¿Para qué sirve?… son las neuronas, la capacidad de pensar, la capacidad de extraer conclusiones más allá del puro subproducto del arduo trabajo de procesar las montañas de datos necesarios para extraer la mena del yacimiento de los conocimientos. 

Allá cada uno con lo que hace con su cabeza y sus pensamientos, pero en el contexto del artículo que estamos tratando, desde el punto de vista de la minería de datos, es… la inteligencia aplicada al cribado y análisis de los enormes flujos de información manejados durante sus procesos implicados. 

Se puede resumir en dos palabras: Inteligencia Artificial. 

Si, damas y caballeros, cómo usarla es cuestión casi inherente a la minería de datos. Extraer valores estadísticos de la minería es algo relativamente común, pero… lo que el ser humano realiza con relativa facilidad, como inferir conclusiones de ellos e incluso – para mentes privilegiadas – llegar a intuir caminos, recorridos y horizontes, es, para los algoritmos informáticos que procesan los datos, una tarea inmensamente compleja.  

Para ello se cuenta con la tecnología de las redes neuronales, que entrenadas en el reconocimiento de patrones de datos y alimentadas con la información y dinámicas que interesa tratar para la casuística que se pretende investigar, permiten emular el comportamiento de la “mente humana”. Esta, como todos ustedes saben, es capaz de establecer relaciones y crear nuevas ideas, en un proceso casi mágico que ocurre en el interior de nuestros cerebros. Es – la materia gris y sus conexiones y posibilidades – lo que ha hecho evolucionar al ser humano hasta alcanzar el punto en el que nos encontramos ahora, y que, trasladado a la la computación electrónica, permite a los ordenadores extraer aquello que entre tanta maraña de datos se nos oculta a la vista, pero que ellos tienen la capacidad de cálculo para procesar y ver, sin la habitual resaca mental que nos produce a los humanos las tareas intensivas de meditación y modelado de respuestas. 

Andalucía está poniendo al alcance del interesado diversas iniciativas de formación como los cursos de “Iniciación a Bussiness Intelligence y Big Data” y “Inteligencia Artificial para personas directivas de empresas TIC: Liderando la revolución tecnológica que está transformando la sociedad” de “Andalucía Es Digital”. 

¿El Futuro?… Si el cuerpo son los datos y su tratamiento, y la cabeza es la inteligencia artificial, está en combinarlos ambos. 

Combinando cuerpo y cabeza. 

Creo, mis queridos lectores, que todos ustedes, a estas alturas, son capaces de vislumbrar la incuestionable rentabilidad político/social de mezclar adecuadamente en las proporciones correctas – al estilo de l@s mejores cociner@s de nuestra tierra – la capacidad de procesamiento de los actuales sistemas TIC con la inteligencia bien guiada y entrenada de los algoritmos deductivos que los sistemas de inteligencia artificial ponen a nuestra disposición. 

Un ejemplo podría ser “El proyecto Carabela”, que de una colección  documental  compuesta  por  150.000  imágenes  (de  interés  para  la  arqueología  subacuática  por  el  objeto  del  proyecto)  pertenecientes  a  los  fondos  del  Archivo  General  de  Indias  y  el  Archivo  Histórico  Provincial  de  Cádiz, sobre la que se  aplicó  la  nueva  metodología  de  aprendizaje  automático  que  permitió indexar  probabilísticamente dentro de los miles de legajos históricos palabras  en  texto  manuscrito,  permitiendo,  además,  realizar  búsquedas  temáticas  sus  colecciones  masivas  de  documentos  históricos  desde  diferentes  intereses  de  investigación  y/o  gestión.  De esa manera se pudo, además, localizar e investigar de forma eficaz información sobre los naufragios históricos, así como clasificar los expedientes en base a las diferentes temáticas de su contenido, contribuyendo a proteger ese aspecto de nuestro abundante patrimonio histórico. 

Otro interesante proyecto esponsorizado por la Junta de Andalucía y las universidades andaluzas es el que desarrolla la Universidad de Jaén para identificar las emociones en desarrollando un método que reconoce el estado de ánimo de los usuarios de la tan utilizada red social Twitter dirigido a detectar casos de depresión o anorexia (que enlaza con uno de mis artículos previos “Enredando en la Sociedad”), pero que en mi opinión podría extrapolarse para “tomar la temperatura” las emociones de los internautas frente a las propuestas gubernamentales de parlamento andaluz. 

Y cómo no mencionar en esta época de pandemia la Convocatoria para Proyectos de Investigación sobre el SARS-COV-2 y la enfermedad COVID-19, cofinanciados con fondos FEDER, de la Consejería de Transformación Economía, industria, Conocimiento Universidades, que en su apartado "F" hace mención explícita del uso de técnicas de inteligencia artificial aplicadas al análisis y control de la enfermedad COVID-19, dado el inmenso volumen de información generada al respecto. 

En fin… análisis de patrones económicos, de comportamientos de la masa poblacional turística, de la producción agrícola…Y así cientos de iniciativas que a buen seguro darán los frutos de la combinación inteligente de cuerpo y cabeza. 

El Zen de la IA. 

La Administración Pública debe buscar sin duda, y con toda certeza mejorar la vida y gobernanza de sus ciudadanos, y para ello cuenta, como he demostrado antes, con la más poderosa herramienta que la tecnología ha puesto a su disposición: La Inteligencia Artificial. 

“Comillas”. ¿Antes las mencioné verdad?  No crean que lo he olvidado. Hablé de objetividad y de la garantía que la anonimización del dato da el encuestado (tanto a la persona física como jurídica). 

Cualquiera cedería sus datos si es para el bien común, pero es igualmente fundamental para conseguir y garantizar con confianza mutua que el administrado o la entidad administrada, origen de la información a tratar, tenga la garantía de que puede ceder sus datos con fines estadísticos sin miedo a ser identificado y señalado como parte del problema, algo que a cualquiera haría sentir, como poco, incómodo – Si… la confianza es algo muy importante para el ser humano. 

Para darle un cierre este ensayo, espero haber sido capaz de poner lo suficientemente de manifiesto que, utilizando las herramientas que el cuerpo y la cabeza ponen a nuestra disposición, estas se pueden y deben utilizar para generar políticas y acciones encaminadas a mejorar la interacción mutua para con los ciudadanos, logrando que sean lo más ágiles posibles y den la productividad necesaria y deseada que las nuevas tecnologías pueden facilitar. 

Todo lo expuesto en estos párrafos se pude resumir como decía Mahatma Gandi en una frase: «La felicidad se alcanza cuando, lo que uno piensa (IA), lo que uno dice (datos) y lo que uno hace (políticas) están en armonía»

     

Bueno, creo que no ha quedado mál del todo... se pueden añadir muchos datos, ejemplos y persectivas diferentes... pero esta el la mía, a menos una parte de ella.

Por cierto, aquí tienen el enlace a la publicación oficial.

Un saludo, Damas y Caballeros!!!

P.d.: Como siempre, no estaría de más que os animaseis a pulsar sobre las estrellitas para valorar qué os ha parecido este ensayo y, sería para mi toda una sorpresa digna de agradecer, dejaseis un comentario pulsando en el enlace azul cerca del título (y luego desplazándose a la zona de input del comentario), gracias.

 

Smile