Jurado IA 100% autónomo · Novedad mundial en Tecnología Social
El fallo de los Premios de Tecnología Social 2026 lo realiza una Inteligencia Artificial diseñada por FUNTESO, que evalúa únicamente evidencias públicas verificables, aplica criterios y pesos transparentes y publica un resultado totalmente auditable. La IA descubre, clasifica, evalúa y decide. FUNTESO solo supervisa éticamente que el proceso sea transparente y reproducible.
¿Qué es el jurado IA?
El Jurado IA es un sistema 100% autónomo diseñado por FUNTESO para identificar, evaluar y seleccionar tecnologías sociales basándose exclusivamente en evidencias públicas verificables. No existen candidaturas ni formularios de inscripción. El proceso completo es realizado por la IA:
- descubre y localiza tecnologías sociales en uso,
- verifica documentación pública institucional,
- clasifica la evidencia por criterios,
- selecciona finalistas por categoría,
- evalúa según un modelo multicriterio con pesos transparentes,
- penaliza la ausencia de pruebas (N/D),
- aplica el estándar ISENS de sensibilización,
- y finalmente decide ORO / PLATA / BRONCE.
No hay intervención humana en:
- la selección de candidatos,
- la comparación de evidencias,
- la puntuación,
- o el ranking final.
La función humana se limita a:
- supervisión ética del proceso,
- asegurar la transparencia,
- publicar los resultados.
Criterios y pesos
Los criterios no se aplican a finalistas enviados por entidades; se aplican sobre los proyectos que la IA misma ha descubierto en el ecosistema público.
El jurado IA evalúa cada finalista con un modelo multicriterio. Cada criterio se puntúa de 0 a 100 en función de la evidencia pública encontrada y tiene un peso conocido. De este modo, cualquier entidad puede entender por qué ha obtenido una determinada puntuación.
Criterios y pesos:
- Impacto social demostrado (30%). Magnitud y profundidad del cambio real que la tecnología genera en la vida de las personas, según datos e informes públicos.
- Calidad de la evidencia (20%). Solidez, diversidad y fiabilidad de las fuentes (organismos públicos, entidades independientes, normativa, estudios…).
- Accesibilidad y cumplimiento (15%). Grado en que la solución es accesible para personas con discapacidad y cumple estándares y normativas.
- Escalabilidad y adopción (10%). Capacidad de extenderse, replicarse y mantenerse en el tiempo (territorios, colectivos, volumen de uso).
- Seguridad, ética y privacidad (10%). Gestión responsable de datos, alineamiento con GDPR, ausencia de riesgos para colectivos vulnerables, enfoque ético.
- Usabilidad / experiencia (10%). Facilidad de uso, claridad, diseño centrado en la persona, especialmente en usuarios vulnerables.
- Sostenibilidad (5%). Continuidad, estabilidad, modelo de mantenimiento y viabilidad a medio y largo plazo.
Regla N/D (No Disponible). Cuando la IA no encuentra evidencia pública suficiente para un criterio, marca N/D y aplica una penalización del 50 % del peso de ese criterio. No se “inventa” impacto ni se asume lo que no está documentado.
ISENS (Impacto de Sensibilización Social)
Además del análisis técnico, el jurado IA incorpora un estándar propio llamado ISENS (Impacto de Sensibilización Social), desarrollado por FUNTESO, que mide cuánto mueve la aguja social una tecnología. ISENS analiza cinco dimensiones:
- Alcance social: a cuántas personas potencialmente alcanza o beneficia.
- Visibilidad mediática: presencia en medios y comunicación pública relevante.
- Demostrabilidad pública: facilidad con la que cualquier persona puede encontrar pruebas del impacto.
- Efecto red: cómo crece el valor de la solución cuando más actores la usan o la integran.
- Relevancia simbólica: su capacidad para convertirse en referencia, ejemplo o símbolo de cambio social.
El resultado ISENS se convierte en un multiplicador del resultado técnico, con un rango limitado: ISENS actúa como un factor entre 1.00 y 1.25 (hasta un +25% máximo de refuerzo sobre la puntuación técnica).
Así, el jurado IA no solo tiene en cuenta lo que la tecnología hace, sino también cómo contribuye a sensibilizar y transformar a la sociedad.
¿Cómo decide el jurado IA?
El Modelo B del Jurado IA sigue las siguientes fases:
- Descubrimiento automático de tecnologías sociales. La IA rastrea entornos públicos, bases de datos, informes y repositorios oficiales para detectar proyectos reales en uso dentro de cada temática.
- Recolecta evidencias públicas. Solo se tienen en cuenta documentos verificables (organismos, normativa, datos abiertos, informes técnicos, webs institucionales…).
- Depuración de información. Se eliminan fuentes promocionales, opiniones, contenido comercial o información no verificable.
- Clasificación semántica. El sistema asigna cada evidencia a uno de los siete criterios del modelo.
- Evaluación multicriterio. Cada criterio se puntúa de 0 a 100 y se aplica su peso oficial (30%, 20%, 15%, etc.).
- Regla N/D. Si falta evidencia suficiente para un criterio → penalización del 50 % del peso.
- Aplicación de ISENS. ISENS (Impacto de Sensibilización Social) actúa como multiplicador (1.00–1.25) sobre la puntuación técnica.
- Selección de finalistas y fallo final. El sistema ordena ORO / PLATA / BRONCE automáticamente.
No existe ningún tipo de intervención humana en el fallo final.
Transparencia total: JSON/XML públicos
Tras el evento, para cada categoría se publicará:
1. Un resumen en lenguaje claro
2. Un archivo técnico (JSON y/o XML) con:
- puntuaciones por criterio,
- marca N/D cuando aplique,
- factor ISENS utilizado,
- ranking final,
- y principales evidencias públicas consultadas.
Esto permite que:
- cualquier entidad pueda auditar el proceso,
- universidades y especialistas puedan estudiar el modelo,
- y otros actores puedan replicar o adaptar la metodología.
¿Por qué es una novedad mundial?
- El fallo es 100% autónomo: la IA no “asiste”, sino que decide el resultado final.
- La evaluación se basa únicamente en evidencias públicas, no en dossieres de autopromoción.
- La metodología es reproducible y auditable, con criterios, pesos y reglas publicados.
- Introduce ISENS, el primer estándar que pondera de forma explícita la sensibilización social de las tecnologías.
- El modelo se documenta en un Libro Blanco abierto a revisión y crítica constructiva por parte de la comunidad académica, técnica y ética.