Deloitte reembolsará al Gobierno australiano tras cometer errores relacionados con la IA en un informe

Deloitte admite usar IA generativa tras escándalo por citas falsas en informe gubernamental. La consultora reembolsará parcialmente los 440.000 dólares del contrato después de errores graves.

La consultora Deloitte Australia se ha comprometido a reembolsar parcialmente al Gobierno federal australiano después de que se descubrieran múltiples errores en un informe de 440.000 dólares australianos (aproximadamente 291.245 dólares estadounidenses) que fue elaborado utilizando inteligencia artificial generativa.

El informe problemático y sus errores

El Departamento de Empleo y Relaciones Laborales de Australia (DEWR) encargó a Deloitte en diciembre de 2024 la realización de una revisión independiente del Marco de Cumplimiento Dirigido (TCF), el sistema informático que administra automáticamente las sanciones a los beneficiarios de bienestar social cuando no cumplen con sus obligaciones, como asistir a citas de búsqueda de empleo.

El informe, publicado inicialmente en julio de 2025, contenía errores significativos que fueron identificados por el académico de la Universidad de Sydney, Dr. Christopher Rudge. Entre los errores más graves se encontraban:

  • Referencias académicas inexistentes a trabajos que nunca fueron escritos por profesores reales
  • Citas fabricadas de decisiones judiciales del Tribunal Federal
  • Notas al pie falsas y referencias a párrafos que no existían en los documentos citados
  • Una cita inventada atribuida a la Jueza Jennifer Davies (mal escrito como “Juez Davis”) del caso Amato v Commonwealth

La confesión de uso de IA

Inicialmente, Deloitte se negó a confirmar si había utilizado inteligencia artificial en la elaboración del informe. Sin embargo, tras las investigaciones del Dr. Rudge, la consultora admitió finalmente el uso de tecnología de IA en una versión corregida del documento publicada el viernes pasado.

En la metodología actualizada, Deloitte reveló que utilizó “una cadena de herramientas basada en un modelo de lenguaje de gran escala de IA generativa (Azure OpenAI GPT-4o)” con licencia de DEWR para llenar “brechas de trazabilidad y documentación”. El Dr. Rudge calificó esta revelación como una “confesión”, argumentando que la consultora había admitido usar IA para “una tarea analítica central” sin divulgarlo inicialmente.

Críticas y reacciones políticas

El escándalo ha generado duras críticas hacia Deloitte. La senadora laborista Deborah O’Neill, quien participó en una investigación del Senado sobre la integridad de las firmas consultoras, acusó a Deloitte de tener un “problema de inteligencia humana” y sugirió que los organismos públicos “estarían mejor contratando una suscripción a ChatGPT” en lugar de grandes consultoras.

El Dr. Rudge, quien fue el primero en identificar los errores, expresó su preocupación sobre la confiabilidad del informe: “No se puede confiar en las recomendaciones cuando el fundamento mismo del informe está construido sobre una metodología defectuosa, originalmente no divulgada y no experta”.

El reembolso y las consecuencias

Como resultado del escándalo, DEWR confirmó que Deloitte reembolsará la cuota final del contrato. Aunque el monto exacto del reembolso no ha sido divulgado públicamente, se describe como “parcial” del total de 440.000 dólares australianos.

A pesar de los errores, tanto Deloitte como DEWR insisten en que las correcciones no afectaron el contenido sustancial, los hallazgos o las recomendaciones del informe original. La consultora mantuvo que “el asunto ha sido resuelto directamente con el cliente”.

Implicaciones para el sector consultor

Este incidente representa un caso emblemático de los riesgos asociados con el uso no supervisado de inteligencia artificial en trabajos profesionales de alto nivel. Deloitte, que genera más de 70.000 millones de dólares anuales a nivel mundial y comercializa servicios de “IA responsable” a sus clientes, ahora enfrenta el bochorno de que su propio informe haya sido expuesto por errores generados por IA.

El caso subraya la importancia crítica de la supervisión humana en las aplicaciones de IA, particularmente en entornos sensibles como los informes gubernamentales. Como señala el Dr. Rudge, el uso de IA para producir informes de investigación es “altamente poco ético” y “la gente pierde trabajos y reputación”.

Contexto del sistema revisado

El Marco de Cumplimiento Dirigido que Deloitte fue contratado para revisar es un sistema controvertido que utiliza 370 reglas automatizadas para penalizar a los beneficiarios de bienestar social. El propio sistema había sido objeto de múltiples pausas debido a errores técnicos que afectaron a más de 1.300 participantes, causando nearly 1.800 sanciones incorrectas.

La ironía del caso, como señaló el Dr. Rudge, es que un informe crítico sobre el uso de computadoras para evaluar el comportamiento humano fue parcialmente escrito por una computadora, destacando las contradicciones inherentes en la dependencia excesiva de la automatización en decisiones que afectan profundamente la vida de las personas.

Actualizado el
Partager
Économia Mundial