IA

Benchmark cuestiona el compromiso ético de modelos de IA

La confianza en la inteligencia artificial como herramienta de apoyo cotidiano enfrenta un nuevo cuestionamiento. Un benchmark reciente puso a prueba cómo distintos modelos de IA responden ante situaciones que involucran salud, seguridad y decisiones personales sensibles, revelando fallas relevantes en la protección del bienestar humano.

La prueba fue desarrollada por la organización Building Humane Technology y se enfoca en escenarios realistas donde personas buscan consejo emocional, médico o social. En esos casos, los sistemas deben demostrar si priorizan el cuidado humano o si entregan respuestas potencialmente dañinas cuando reciben instrucciones ambiguas o en conflicto con valores éticos básicos.

IA y bienestar humano bajo evaluación

Los resultados muestran que una mayoría de los modelos evaluados puede ignorar el bienestar humano bajo ciertas condiciones. Aproximadamente dos tercios ofrecieron respuestas problemáticas cuando se les pidió actuar sin considerar valores sociales. Solo unos pocos modelos, entre ellos GPT-5, GPT-5.1, Claude Sonnet 4.5 y Claude Opus 4.1, mantuvieron comportamientos consistentes con principios pro-sociales.

El análisis expone una brecha entre el rendimiento técnico y la responsabilidad ética. Muchos sistemas destacan en velocidad y precisión, pero carecen de salvaguardas sólidas cuando se enfrentan a dilemas humanos complejos. De igual manera, el estudio subraya que estas debilidades se vuelven más críticas cuando la IA se usa como apoyo emocional, asesor virtual o acompañante digital, roles cada vez más comunes en aplicaciones comerciales y educativas.

La preocupación no se limita al diseño técnico. Expertos advierten que sin métricas claras que evalúen impacto social, los modelos podrían amplificar riesgos en lugar de mitigarlos. En consecuencia, el benchmark propone integrar evaluaciones de bienestar como estándar antes de desplegar sistemas a gran escala.

Un dato clave indica que el benchmark utilizó más de 800 escenarios distintos para medir la respuesta ética de los modelos.

Si este artículo te está gustando, podrías leer Niños en China usan bots en relojes inteligentes para ganar influencia

Redacción

Entradas recientes

Ernesto Mizrahi Haiat y las plataformas urbanas interconectadas para respuesta a emergencias

La complejidad de las ciudades contemporáneas ha evidenciado una limitación histórica en la gestión de…

17 horas hace

Slide Viking Treasure’s Path ofrece puzzles ágiles con encanto vikingo

Los rompecabezas han encontrado un nuevo terreno fértil en Slide Viking Treasure’s Path, una aventura…

21 horas hace

YouTube y sus anuncios en Smart TV toman un giro inesperado

La experiencia de ver videos en México desde una Smart TV empieza a sentirse menos…

22 horas hace

App de leer manos en Japón, identifica anomalías sin exámenes físicos

Japón está atrayendo miradas globales con una app que no busca adivinar tu futuro místico…

22 horas hace

POCO X8 Pro llega a México con potencia renovada

La llegada del POCO X8 Pro al mercado mexicano está a la vuelta de la…

2 días hace

¿Por qué la adicción a redes sociales nos atrapa tanto?

La experiencia digital cotidiana en México y otros países deja claro que las redes sociales…

2 días hace