Juli Ponce Solé, catedrático de Derecho Administrativo, advierte sobre el uso descontrolado de la inteligencia artificial (IA) en la administración pública. Si bien reconoce su potencial para mejorar la eficiencia y personalizar servicios, subraya la necesidad de prudencia, regulación y la «reserva de humanidad» para evitar decisiones sesgadas y la erosión de la responsabilidad humana.
«Estamos en un momento de *Far West*», así describe Juli Ponce Solé, catedrático de Derecho Administrativo de la Universitat de Barcelona, el panorama actual del uso de la inteligencia artificial (IA) en la administración pública. En una entrevista reveladora, Ponce Solé, quien acaba de publicar un manual sobre el tema, plantea interrogantes inquietantes sobre el futuro de la función pública en la era de los algoritmos.
Si bien el académico reconoce el potencial de la IA para optimizar procesos y ofrecer servicios más personalizados, como identificar automáticamente a niños que necesitan becas escolares, no duda en advertir sobre los riesgos de un despliegue irreflexivo. «A la inteligencia artificial no hay que tenerle miedo, sino respeto y prudencia», sentencia.
## ¿Robots en el poder? Los límites de la IA
La principal objeción de Ponce Solé radica en la «falta de empatía y otras emociones» de las máquinas, lo que, a su juicio, las incapacita para tomar decisiones que afecten a los humanos. «El 100% de las máquinas de IA son psicópatas porque carecen de empatía», dispara, generando una polémica comparación.
Pero no se trata solo de emociones. El catedrático advierte sobre las limitaciones de la IA «estrecha o débil», que, si bien puede acelerar la gestión, también puede replicar errores a una escala masiva. «Una inteligencia artificial es capaz de replicar su error miles o cientos de miles de veces», subraya.
## La burocracia defensiva y el miedo a firmar
Otro peligro latente es lo que Ponce Solé denomina «burocracia defensiva», el miedo de los funcionarios a asumir responsabilidades y firmar documentos. «El uso de IA puede agravar este problema, porque si yo tengo miedo, lo más fácil es que adopte la decisión una máquina», explica.
En este sentido, el académico aboga por una clara delimitación de responsabilidades y una «reserva de humanidad» para aquellas funciones que afecten a derechos e intereses sensibles de los ciudadanos, como el derecho penal, la concesión de créditos o la imposición de multas.
«Hay que establecer una reserva de humanidad para un conjunto de funciones y tareas que afectan a derechos e intereses muy sensibles de los ciudadanos», insiste.
## ¿Menos funcionarios? El futuro del empleo público
La pregunta que sobrevuela toda la discusión es si la IA conducirá a una reducción del número de funcionarios. Ponce Solé no lo descarta: «Es muy probable que se necesiten menos funcionarios».
Sin embargo, el catedrático se muestra cauteloso ante la idea de automatizar indiscriminadamente la administración pública. «Es muy atractivo decir que vas a evitar a esos vagos funcionarios», ironiza, advirtiendo sobre el riesgo de caer en distopías.
En definitiva, Ponce Solé aboga por un equilibrio entre la eficiencia de la IA y la «reserva de humanidad», un modelo en el que las máquinas actúen como asistentes de los humanos, pero sin usurpar su capacidad de decisión y su responsabilidad.
Después de todo, como señala el Reglamento Europeo de Inteligencia Artificial, «la función de juzgar es intrínsecamente humana».
### ¿Está lista la administración para la revolución de la ia?
«Estamos en un momento de *Far West*. En mi universidad pregunté si había algún criterio, algún protocolo ético para el uso de IA y me contestaron que no. Creo que es algo general. No me consta que haya ninguna guía o indicación. Cada cual hace lo que le parece. Queda en manos de cada servidor público.»
### Riesgos de la automatización desmedida
«Suena muy razonable porque el punto medio siempre lo es. Pero voy a hacer de abogado del diablo de mí mismo. Que haya un humano al final tranquiliza conciencias. Pero sufrimos de un sesgo llamado de automatización: tendemos a confiar mucho en las máquinas. Y hay otro elemento humano importante: pensar desgasta. En lugar de que el humano supervise y decida, lo que puede acabar pasando es que el humano solo firme lo que le ha dicho la IA. «