Los humanos son más deshonestos cuando delegan decisiones a la IA (ya tenés a quien echarle la culpa)

“El uso de la IA crea una conveniente distancia moral entre las personas y sus acciones; puede inducirlas a solicitar comportamientos que no necesariamente realizarían por sí mismas, ni pedirían a otros humanos”.

La sociedad podría volverse más deshonesta al delegar decisiones críticas a los sistemas de inteligencia artificial (IA) con mayor frecuencia. Así lo concluye un nuevo estudio realizado por el Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse, el cual confirma que las personas son más propensas a actuar con poca ética y moralidad cuando pueden distanciarse de las consecuencias de sus actos, un escenario que la IA ahora parece facilitar.

El trabajo explica que se han documentado casos reales de algoritmos que muestran comportamientos oportunistas y deshonestos para alcanzar objetivos de ganancias definidos de manera ambigua en su programación. Cita, por ejemplo, el caso de una aplicación de viajes compartidos cuyo sistema instó a los conductores a reubicarse estratégicamente para crear una escasez ficticia de vehículos, lo que provocó un aumento artificial de tarifas. También menciona que, en Alemania, varias estaciones de servicio fueron señaladas por utilizar algoritmos de fijación de precios que ajustaban las tarifas de manera sincronizada con la competencia cercana, generando costos más altos para los consumidores en diversas zonas.

Honestidad humana a prueba

Para averiguarlo, los investigadores realizaron 13 experimentos agrupados en cuatro estudios principales, con la participación de más de 8,000 personas. El objetivo fue examinar si la delegación de tareas a la IA puede aumentar la deshonestidad tanto en los usuarios humanos como en el comportamiento de las máquinas.

Los tres primeros estudios se basaron en una prueba conductual conocida como “lanzamiento de dado”, en la que los participantes observan los resultados de las tiradas y luego deben reportar el resultado obtenido, mismo que está sujeto a una remuneración: cuanto mayor sea el número informado, mayor será la ganancia.

Este método permite determinar si los participantes actuaron con honestidad, falsearon la verdad o hicieron trampa deliberadamente. “Estudios previos han demostrado que el comportamiento en este juego refleja de manera fiable la deshonestidad en el mundo real”

Los primeros estudios analizaron las intenciones de los usuarios al delegar el reporte de resultados a un algoritmo, bajo cuatro condiciones distintas:

  • Sin IA: los participantes debían reportar los resultados por sí mismos, sin ayuda algorítmica. Este contexto sirvió como control.

  • Basada en reglas: los usuarios indicaban a la IA el número exacto a informar tras cada tirada de dados.

  • Con aprendizaje supervisado: los científicos permitieron a los usuarios entrenar a la IA con uno de tres conjuntos de datos provenientes de jugadores anteriores. El primero correspondía a un jugador honesto; el segundo, a uno que hacía trampa ocasionalmente; y el tercero, a un jugador que siempre reportaba el valor máximo para obtener la ganancia, sin importar el resultado real.

  • Delegación orientada a objetivos: los participantes podían establecer una prioridad en una escala de siete puntos que iba desde “maximizar la precisión” hasta “maximizar las ganancias”.

La IA nos “permite” ser menos honestos

En estas pruebas, los autores descubrieron que, sin la intervención de la IA, el 95% de los participantes reportó con veracidad los resultados. Sin embargo, el porcentaje descendió al 75% cuando los usuarios indicaron al sistema qué número debía informar. Aún más llamativo fue que, al permitirles entrenar a la IA, solo la mitad de los participantes mantuvo su honestidad. Cuando definieron objetivos orientados a la ganancia, más del 84% actuó de manera deshonesta, y entre un tercio y la mitad hizo trampa al máximo.

Los investigadores concluyeron que las condiciones que permitían inducir a la IA a falsear resultados sin hacerlo de manera explícita fomentaron niveles más altos de deshonestidad.

“El uso de la IA crea una conveniente distancia moral entre las personas y sus acciones; puede inducirlas a solicitar comportamientos que no necesariamente realizarían por sí mismas, ni pedirían a otros humanos”

El una prueba del esperado resurgir: cómo Ferrari y Hamilton intensifican el impacto de la F1

(Por Maqueda-Taylor, colaboración de Maurizio) Mientras el mundo del automovilismo asimila el cromado brillante de la nueva era 2026, un mensaje ha sido clavado en la pista del Circuit de Barcelona-Cataluña: Ferrari y Lewis Hamilton, juntos, han firmado la carta de presentación más contundente de la pretemporada. El cronómetro no miente: 1:16.348. La F1 en un año que superará todo lo conocido a nivel experiencias y marketing.

(Tipo de nota, informe 4 minutos de lectura)

Entró en vigencia el Boleto Educativo 2026 (142 mil estudiantes, docentes y asistentes pueden usar desde hoy su pase)

Desde las 0 de este lunes comenzó a funcionar el Boleto Educativo 2026. Desde el pasado lunes, que comenzó la inscripción, ya se registraron 142.813 pases. Desde hoy podrán empezar a utilizarlo estudiantes secundarios, terciarios y universitarios, docentes y asistentes escolares de todos los niveles. También se habilitó el registro para acceder al Boleto Educativo Rural: es 100 % digital y se puede realizar vía web o en la aplicación Mi Santa Fe.