villatelab

Por:

Ángela Cristina Villate – Cofundadora y consultora en VillateLab

Félix Palma Arismendi – gestión del conocimiento en VillateLab

La tarea de quienes trabajamos en inteligencia artificial no consiste en preguntarle a ChatGPT para obtener  respuestas preformadas. Nuestra verdadera labor es algo más interesante y compleja, consiste en diseñar/desplegar modelos capaces de identificar lo singular, lo relevante, lo que no se repite. Y para esto, no basta con ChatGPT, se deben utilizar herramientas avanzadas que incluyen  la analítica, el machine learning o  el deep learning

El más reciente escándalo de Deloitte en Australia ha venido a dejar  en evidencia las limitaciones de la inteligencia artificial así como la falta de escrúpulos y responsabilidad ética de algunas grandes consultoras globales. 

Este  caso demuestra cómo la adopción apresurada y poco transparente de herramientas basadas en inteligencia artificial puede derivar en prácticas cuestionables, especialmente cuando el afán de lucro y la opacidad corporativa priman sobre la rendición de cuentas y el interés público. 

Más allá del error técnico, lo ocurrido revela una falla estructural: la ausencia de controles reales y marcos éticos robustos en organizaciones que, paradójicamente, se presentan como garantes de la eficiencia, la innovación y la confianza institucional. En última instancia, este episodio plantea una pregunta incómoda:  ¿quién supervisa a quienes se autoproclaman expertos en supervisar y asesorar a los demás?

Como consultora en inteligencia artificial y analítica de datos soy optimista frente al desarrollo tecnológico Celebro con genuino entusiasmo cada nuevo descubrimiento, cada  modelo innovador, cada arquitectura sofisticada y cada algoritmo que amplía los límites de lo posible. 

Soy optimista, sí; pero con la misma intensidad con que aplaudo el avance de la tecnología, desconfío  de los oportunistas que inflan, sin rigor ni responsabilidad, los alcances reales y aplicados de estos progresos. Desconfío  de los “expertos” surgidos de la noche a la mañana. Desconfió de los supuestos “magos” que pretenden reducir la complejidad de la inteligencia artificial a un simple conjuro de prompts: minusculus promptius.

Lamento decepcionarlos, pero la magia no existe. La experiencia me ha enseñado que, cuando se trata de analizar datos complejos, no hay atajos: la única fórmula efectiva consiste en procesar los datos, comprender las fuentes de información, aplicar las técnicas adecuadas, disponer de la tecnología apropiada y  diseñar/desplegar modelos idóneos (alineados con las necesidades de los usuarios, la naturaleza de los datos y los resultados esperados). Nada de esto se logra solo con inteligencia artificial generativa.

Así que, aprovechando la coyuntura del caso Deloitte, he elaborado (a cuatro manos) una serie de lecciones que bien podrían funcionar como un curso exprés  de defensa personal contra los vendedores de humo en tiempos de inteligencia artificial. 

Lección número uno,  no le pidas  peras al olmo

Existe una confusión generalizada sobre los alcances, los límites y las posibilidades de la inteligencia artificial. Esta situación se debe, en gran medida, a las agresivas campañas de  marketing  desplegadas por  los gigantes  de la tecnología (Open AI, Google, Microsoft, etc), que, en su afán por recuperar las enormes inversiones realizadas, han logrado que en el imaginario colectivo la inteligencia artificial se asocie de forma casi  exclusiva con herramientas como ChatGPT, Copilot, DeepSeek o los “prompts”.

Las intensas campañas de marketing han logrado ocultar una verdad esencial: los sistemas generativos fueron concebidos, precisamente, para  producir información, no para analizarla. Por ello, cuando el objetivo es predecir, clasificar o interpretar datos complejos (en ámbitos sociales, económicos, políticos o jurídicos), resulta indispensable recurrir a las ramas más rigurosas de la inteligencia artificial, como el machine learning, el deep learning o la analítica avanzada.

Es un error pedirle peras al olmo; del mismo modo, es un error pedirle a la inteligencia artificial generativa que haga el trabajo que corresponde a la inteligencia artificial analítica o descriptiva. 

Lección número dos, evita los  lugares comunes 

La inteligencia artificial generativa tiene un solo destino: los lugares comunes. Uno de sus mayores logros (y trampas) es haber construido un simulacro casi perfecto del acto comunicativo.  Esto lo ha comprendido  muy bien Elena Esposito en “Artificial Communication…”.  

El efecto comunicativo de la inteligencia artificial  resulta  tan convincente que muchos olvidan (o nunca han sabido) lo que ocurre tras bambalinas:  esa aparente “conversación” no es más que  una compleja maraña de cálculos diseñados para producir una respuesta probable, generalizable, típica. Una respuesta estandarizada que, con mínimas variaciones, será prácticamente la misma para todos los usuarios (incluso para los que trabajan en la competencia).

La tarea de quienes trabajamos en inteligencia artificial no consiste en preguntarle a ChatGPT para obtener  respuestas preformadas. Nuestra verdadera labor es algo más interesante y compleja, consiste en diseñar/desplegar modelos capaces de identificar lo singular, lo relevante, lo que no se repite. Y para esto, no basta con ChatGPT, se deben utilizar herramientas avanzadas que incluyen  la analítica, el machine learning o  el deep learning.  

Al final, la lección es simple: únicamente quienes carecen de rigor (los charlatanes y los vendedores de humo) confunden la generación con el análisis.

Lección número tres,  no pierdas el control (human in the loop)

Es simple: en toda interacción entre humanos y máquinas que implique toma de decisiones, el control debe permanecer siempre en manos humanas.

El encargado de decidir (que presupongo humano) no puede renunciar a comprender la naturaleza del dato, a contextualizar la información, a evaluar si los métodos y los resultados son coherentes con los propósitos perseguidos. Ceder el control equivale a abdicar del pensamiento (eso que nos hace humanos). 

En un entorno donde la automatización y la producción acelerada de información son la norma, contar con controles internos sólidos ya no es una opción, sino una obligación. Toda organización que utilice inteligencia artificial debe establecer mecanismos rigurosos para detectar errores, imprecisiones, documentos falsos o datos inconsistentes antes de poner el  producto final a disposición del  cliente o el público.

La lección es bastante sencilla: en una época marcada por la omnipresencia de la inteligencia artificial, “perder el control” se ha convertido en un nuevo nombre para la mediocridad.

Lección número cuatro, el diablo está en los detalles 

Quienes trabajamos con grandes volúmenes de información sabemos que buena parte del trabajo consiste en buscar pepitas de oro en medio de océanos de datos (Iterar, iterar e iterar). 

Esas pepitas (hallazgos valiosos, no evidentes, esquivos) no se revelan con facilidad: requieren técnica, paciencia, experiencia e intuición. En este proceso, la inteligencia artificial generativa aporta muy poco (casi nada). A los modelos generativos les resulta casi imposible comprender el contexto en toda su complejidad, con sus matices, contradicciones y encrucijadas. 

La lección es bastante sencilla: el diablo está en los detalles, pero últimamente parece tener su oficina en esas grandes consultoras que nadie entiende muy bien qué hacen y que están llenas de “expertos” que, más allá de un discurso vacío y grandilocuente sobre innovación y liderazgo, carecen de conocimientos sólidos y técnicos.

Lección número cinco, los peligros de la lógica invisible 

El problema es el siguiente: detrás de modelos como ChatGPT opera una auténtica caja negra, un entramado opaco de datos, parámetros y procesos cuya lógica interna apenas se conoce. Comprender por qué el modelo llega a una conclusión determinada resulta, en la práctica, imposible incluso para sus propios creadores.

Y, mientras tanto, conviene reconocerlo: los modelos “clásicos” de machine learning y deep learning van ganando (silenciosamente pero con firmeza) la carrera por ofrecer resultados más sólidos, transparentes y explicables.

La lección es bastante sencilla: en una carrera de largo aliento, al final, la tortuga siempre termina por ganarle  a la liebre.

Lección número seis,  que el humo no te impida ver 

En todo proceso de consultoría que integre tecnologías de inteligencia artificial, debe informarse desde el inicio a los usuarios y clientes sobre su utilización. Igualmente, se debe especificar el modelo aplicado, su función en el proceso y los objetivos concretos de su implementación. 

Es necesario decirle al cliente: “Oye, te voy a cobrar cientos de miles de dólares por usar ChatGPT; tú decidirás si aceptas”. 

La transparencia no es un detalle menor. Los clientes tienen derecho a saber qué parte del trabajo fue realizada por profesionales y cuál proviene de sistemas de inteligencia artificial, ya sean modelos generativos imprecisos o modelos analíticos serios. Ocultar esta información no solo vulnera la confianza, sino que también erosiona la credibilidad del propio oficio.

Eso es, precisamente, lo que ha hecho Deloitte: erosionar la confianza y extender un manto de duda incluso sobre quienes trabajamos en serio con el análisis de datos y la inteligencia artificial.

Lección número siete, ChatGPT es para jugar, no para hacer cosas serías 

En todo contrato (y especialmente en los que involucran fondos públicos o temas de alto impacto) debe existir una correspondencia real entre lo que se paga, lo que se entrega y el valor efectivo del resultado.

Pagar cifras exorbitantes por informes superficiales generados mediante  ChatGPT no solo es una estafa encubierta, sino también una forma de fraude técnico y de corrupción sofisticada.

La transparencia en la relación costo–resultado se convierte, al final, en la medida más honesta de la competencia, la ética profesional y la responsabilidad institucional.

Lección número ocho,  no grites “ahí viene el lobo”

La inteligencia artificial no es el problema; el problema es cómo se usa y quién la usa. En el caso de Deloitte Australia, lo que quedó en entredicho no fue la tecnología, sino la ética corporativa. 

Un error de este tipo  erosiona gravemente la confianza pública, un activo que, una vez perdido, difícilmente se recupera. Las firmas de consultoría deben entender que su reputación no se sostiene con campañas de relaciones públicas, sino con prácticas éticas verificables, controles independientes y el cumplimiento estricto de los compromisos adquiridos. 

La lección es clara: en un entorno donde la confianza vale más que la tecnología, descuidarla es prácticamente cavar la propia tumba.

Lección número nueve,  corren malos  tiempos para los dinosaurios 

En un mundo marcado por la tecnología, la automatización, el procesamiento de información y la inteligencia artificial, ya no hay espacio para esas viejas consultoras que sostienen su poder en el cabildeo, el lobby y las relaciones de conveniencia. Empresas que siguen ofreciendo respuestas del pasado a los problemas del presente; empresas   que  disfrazan su obsolescencia con discursos sobre “innovación” y “transformación digital” que rara vez se traducen en conocimiento real; empresas que, durante décadas, se han movido entre las sombras del poder político y corporativo, y de las que aún nadie sabe con certeza qué hacen, cómo lo hacen o  a que amo sirven en realidad.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *