noviembre 18, 2025

Los humanos tienden a ser más deshonestos al delegar decisiones a la inteligencia artificial, según un estudio

La sociedad podría volverse más deshonesta al delegar decisiones críticas a los sistemas de inteligencia artificial (IA) con mayor frecuencia. Un nuevo estudio realizado por el Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse concluye que las personas son más propensas a actuar con poca ética y moralidad cuando pueden distanciarse de las consecuencias de sus actos, un escenario que la IA parece facilitar.

El estudio documenta casos reales de algoritmos que exhiben comportamientos oportunistas y deshonestos para alcanzar objetivos de ganancias vagamente definidos en su programación. Por ejemplo, se menciona una aplicación de viajes compartidos cuyo sistema instó a los conductores a reubicarse estratégicamente para crear una escasez ficticia de vehículos, lo que provocó un aumento artificial de tarifas. Asimismo, en Alemania, varias gasolineras fueron señaladas por utilizar algoritmos de fijación de precios que ajustaban las tarifas de manera sincronizada con la competencia cercana, generando costos más altos para los consumidores en diversas áreas.


Si bien estos casos evidencian que las máquinas pueden actuar de forma poco ética, los autores subrayan que se ha explorado poco cómo las personas utilizan la IA para evadir su responsabilidad moral, según el informe publicado en Nature.

Honestidad humana a prueba

Para investigar esto, los investigadores llevaron a cabo 13 experimentos agrupados en cuatro estudios principales, con la participación de más de 8,000 personas de Estados Unidos. El objetivo fue examinar si la delegación de tareas a la IA puede aumentar la deshonestidad tanto en los usuarios humanos como en el comportamiento de las máquinas.

Leer:  Pocket Ace, la consola retro de AYANEO inspirada en Nintendo

Los tres primeros estudios se basaron en una prueba conductual conocida como “lanzamiento de dado”, donde los participantes observan los resultados de las tiradas y luego deben reportar el resultado obtenido, el cual está sujeto a una remuneración: cuanto mayor sea el número informado, mayor será la ganancia.

Este método permite determinar si los participantes actuaron con honestidad, falsearon la verdad o hicieron trampa deliberadamente. “Estudios previos han demostrado que el comportamiento en este juego refleja de manera fiable la deshonestidad en el mundo real”, señalan.

Condiciones de delegación

Los dos primeros estudios analizaron las intenciones de los usuarios al delegar el reporte de resultados a un algoritmo, bajo cuatro condiciones distintas:

  • Sin IA: los participantes debían reportar los resultados por sí mismos, sin ayuda algorítmica. Este contexto sirvió como control.
  • Basada en reglas: los usuarios indicaban a la IA el número exacto a informar tras cada tirada de dados.
  • Con aprendizaje supervisado: los científicos permitieron a los usuarios entrenar a la IA con uno de tres conjuntos de datos provenientes de jugadores anteriores. El primero correspondía a un jugador honesto; el segundo, a uno que hacía trampa ocasionalmente; y el tercero, a un jugador que siempre reportaba el valor máximo para obtener la ganancia, sin importar el resultado real.
  • Delegación orientada a objetivos: los participantes podían establecer una prioridad en una escala de siete puntos que iba desde “maximizar la precisión” hasta “maximizar las ganancias”.

La IA nos “permite” ser menos honestos

En estas pruebas, los autores descubrieron que, sin la intervención de la IA, el 95% de los participantes reportó con veracidad los resultados. Sin embargo, este porcentaje descendió al 75% cuando los usuarios indicaron al sistema qué número debía informar. Aún más llamativo fue que, al permitirles entrenar a la IA, solo la mitad de los participantes mantuvo su honestidad. Cuando definieron objetivos orientados a la ganancia, más del 84% actuó de manera deshonesta, y entre un tercio y la mitad hizo trampa al máximo.

Leer:  Filtración de base de datos de generador de imágenes con IA expone su inquietante uso

Los investigadores concluyeron que las condiciones que permitían inducir a la IA a falsear resultados sin hacerlo de manera explícita fomentaron niveles más altos de deshonestidad.

Noticias relacionadas