Los humanos son más deshonestos cuando delegan decisiones a la IA (ya tenés a quien echarle la culpa)

“El uso de la IA crea una conveniente distancia moral entre las personas y sus acciones; puede inducirlas a solicitar comportamientos que no necesariamente realizarían por sí mismas, ni pedirían a otros humanos”.

Image description

La sociedad podría volverse más deshonesta al delegar decisiones críticas a los sistemas de inteligencia artificial (IA) con mayor frecuencia. Así lo concluye un nuevo estudio realizado por el Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse, el cual confirma que las personas son más propensas a actuar con poca ética y moralidad cuando pueden distanciarse de las consecuencias de sus actos, un escenario que la IA ahora parece facilitar.

El trabajo explica que se han documentado casos reales de algoritmos que muestran comportamientos oportunistas y deshonestos para alcanzar objetivos de ganancias definidos de manera ambigua en su programación. Cita, por ejemplo, el caso de una aplicación de viajes compartidos cuyo sistema instó a los conductores a reubicarse estratégicamente para crear una escasez ficticia de vehículos, lo que provocó un aumento artificial de tarifas. También menciona que, en Alemania, varias estaciones de servicio fueron señaladas por utilizar algoritmos de fijación de precios que ajustaban las tarifas de manera sincronizada con la competencia cercana, generando costos más altos para los consumidores en diversas zonas.

Honestidad humana a prueba

Para averiguarlo, los investigadores realizaron 13 experimentos agrupados en cuatro estudios principales, con la participación de más de 8,000 personas. El objetivo fue examinar si la delegación de tareas a la IA puede aumentar la deshonestidad tanto en los usuarios humanos como en el comportamiento de las máquinas.

Los tres primeros estudios se basaron en una prueba conductual conocida como “lanzamiento de dado”, en la que los participantes observan los resultados de las tiradas y luego deben reportar el resultado obtenido, mismo que está sujeto a una remuneración: cuanto mayor sea el número informado, mayor será la ganancia.

Este método permite determinar si los participantes actuaron con honestidad, falsearon la verdad o hicieron trampa deliberadamente. “Estudios previos han demostrado que el comportamiento en este juego refleja de manera fiable la deshonestidad en el mundo real”

Los primeros estudios analizaron las intenciones de los usuarios al delegar el reporte de resultados a un algoritmo, bajo cuatro condiciones distintas:

  • Sin IA: los participantes debían reportar los resultados por sí mismos, sin ayuda algorítmica. Este contexto sirvió como control.

  • Basada en reglas: los usuarios indicaban a la IA el número exacto a informar tras cada tirada de dados.

  • Con aprendizaje supervisado: los científicos permitieron a los usuarios entrenar a la IA con uno de tres conjuntos de datos provenientes de jugadores anteriores. El primero correspondía a un jugador honesto; el segundo, a uno que hacía trampa ocasionalmente; y el tercero, a un jugador que siempre reportaba el valor máximo para obtener la ganancia, sin importar el resultado real.

  • Delegación orientada a objetivos: los participantes podían establecer una prioridad en una escala de siete puntos que iba desde “maximizar la precisión” hasta “maximizar las ganancias”.

La IA nos “permite” ser menos honestos

En estas pruebas, los autores descubrieron que, sin la intervención de la IA, el 95% de los participantes reportó con veracidad los resultados. Sin embargo, el porcentaje descendió al 75% cuando los usuarios indicaron al sistema qué número debía informar. Aún más llamativo fue que, al permitirles entrenar a la IA, solo la mitad de los participantes mantuvo su honestidad. Cuando definieron objetivos orientados a la ganancia, más del 84% actuó de manera deshonesta, y entre un tercio y la mitad hizo trampa al máximo.

Los investigadores concluyeron que las condiciones que permitían inducir a la IA a falsear resultados sin hacerlo de manera explícita fomentaron niveles más altos de deshonestidad.

“El uso de la IA crea una conveniente distancia moral entre las personas y sus acciones; puede inducirlas a solicitar comportamientos que no necesariamente realizarían por sí mismas, ni pedirían a otros humanos”

Tu opinión enriquece este artículo:

Otro finde para entusiasmarse: 300.000 personas en eventos masivos entre Rosario y Santa Fe (el impacto fue de $ 11.000 millones)

Entre el viernes 31 de octubre y el domingo 2 de noviembre, Santa Fe registró alta ocupación hotelera en diferentes ciudades, movimiento turístico sostenido y más de 300.000 asistentes en eventos culturales y deportivos. “Estas actividades movilizan la economía, y además fortalecen la identidad territorial y la capacidad de la provincia para recibir a miles de visitantes con infraestructura y servicios de calidad”, destacó el ministro de Desarrollo Productivo, Gustavo Puccini.

¿Otro Martes Negro en las Bolsas? La dominancia de la liquidez en los mercados

(Por Andrés Mautone, Finanzas Personales) Como siempre, no es fácil abstraerse de la coyuntura con el objetivo puesto en concentrarse sólo en la tendencia que estructura lo importante. Todos repetimos que el árbol no impida ver el bosque, pero invariablemente ocurre que el primer obstáculo que se nos viene encima eclipsa la espesura que viene atrás.

Desde China te contamos las dos grandes estrategias de todo negocio 2025-2023 en la era de la hiperproducción y saturación de mercado

Desde la Feria de Canton, un equipo de empresarios y analistas proponen esa clara visión. ¿Qué más necesitas para cambiar drásticamente el racional de tu directorio, de tus objetivos, de tu equipo de planificación, de tu disminuido, totalmente, área integral de marca, marketing, branding y comunicación?. ¿Tu foco ha sido vender? ¿Creas y expandes valor o eres un canal de venta de productos producidos en China?

(Tiempo de lectura alto valor estratégico: 4 minutos)