La falsa adopción de IA en las empresas

Muchas empresas afirman que ya “implementaron inteligencia artificial” porque permiten a sus empleados usar ChatGPT, Copilot u otras herramientas similares para redactar correos, resumir documentos o generar propuestas.

Pero en la mayoría de los casos eso significa algo mucho más simple:
que tienen una ventana de chat abierta.

Implementar inteligencia artificial dentro de una organización implica algo bastante distinto. Y la diferencia no es menor, porque cuando una empresa cree que ya “adoptó IA”, suele asumir que el trabajo estratégico ya está hecho, cuando en realidad todavía no cambió ningún proceso interno.

El error más común en las empresas

Muchas empresas asumen que implementar inteligencia artificial implica entrenar modelos propios, comprar placas de video o montar infraestructura compleja.

En la práctica, la mayoría de las implementaciones empresariales no requiere nada de eso.

Hoy los modelos más avanzados se consumen directamente mediante APIs ofrecidas por proveedores como OpenAI, Google o Anthropic.

El desafío técnico rara vez está en entrenar el modelo.

Lo que realmente marca la diferencia es cómo se integran esos modelos con los datos, los sistemas y los procesos de la empresa.

Para entender por qué, primero hay que separar algunas capas que muchas veces se mezclan.

ChatGPT es una interfaz, no el sistema

ChatGPT no es la inteligencia artificial en sí misma. Es una interfaz: la ventana a través de la cual enviamos texto y recibimos una respuesta.

Detrás de esa interfaz existe un modelo de lenguaje, que es el sistema matemático que procesa un input y genera un output.

La diferencia puede parecer menor, pero no lo es.

Usar una interfaz para interactuar con un modelo no significa que una empresa haya implementado inteligencia artificial en sus procesos.

Si una empresa usa el modelo para generar ideas, redactar documentos o resumir información, está utilizando una herramienta útil.

Pero eso todavía no es implementar inteligencia artificial dentro de la organización.

Qué es realmente un modelo de inteligencia artificial

Un modelo de inteligencia artificial es, en esencia, una función matemática entrenada para predecir.

Recibe números que representan el contexto y devuelve probabilidades sobre posibles continuaciones de ese contexto.

En los modelos de lenguaje ese proceso suele describirse como predecir el próximo token. Un token puede ser una palabra, parte de una palabra o incluso un símbolo. El modelo calcula cuál es el token más probable dadas las secuencias que vio durante su entrenamiento y el contexto que se le proporciona.

El texto que vemos es simplemente una representación humana de ese proceso.

Antes de que el modelo opere, el texto se transforma en números. El modelo trabaja sobre esos números mediante matrices y transformaciones matemáticas, y luego el resultado vuelve a convertirse en texto para que lo podamos leer.

El punto importante es este:

El modelo por sí mismo genera texto.

No ejecuta acciones.
No interactúa con sistemas externos.
No toma decisiones operativas.

Usar IA no es lo mismo que integrarla en procesos

La diferencia real aparece cuando el modelo deja de ser una herramienta aislada y pasa a formar parte de un sistema.

Una herramienta conversacional puede mejorar la productividad individual de quien la utiliza, pero no transforma el funcionamiento de la empresa.

Es comparable a usar una calculadora y afirmar que se implementó un sistema contable completo.

Una herramienta puede ayudar.
Un sistema implica procesos, integración de datos, reglas operativas y automatización.

En modelos modernos, la respuesta puede sugerir ejecutar una herramienta externa, lo que suele llamarse tool calling, pero sigue siendo solo una predicción.

El modelo es una función matemática inerte: no puede ejecutar acciones por sí mismo. Lo único que hace es sugerir que sería conveniente usar una herramienta disponible. El software que rodea al modelo interpreta esa sugerencia, ejecuta la función correspondiente y devuelve el resultado al modelo como parte del contexto.

Qué significa realmente implementar IA

Implementar inteligencia artificial implica diseñar una arquitectura donde el modelo forme parte de un sistema más amplio.

En la práctica, eso significa que el modelo pueda:

  • interactuar con datos internos
  • consultar información contextual
  • solicitar la ejecución de acciones
  • participar en flujos de decisión
  • operar dentro de procesos automatizados

También implica poder observar cómo funciona ese sistema en producción: qué preguntas recibe, qué decisiones toma y dónde aparecen errores o inconsistencias.

Sin integración ni observabilidad, no hay implementación real de inteligencia artificial.

Datos + herramientas: las dos piezas clave

En una implementación real, un modelo de lenguaje rara vez trabaja aislado.

Para responder correctamente necesita acceso a información específica de la empresa: contratos, manuales internos, historial de clientes o documentación técnica.

En lugar de esperar que el modelo “sepa” todo eso de antemano, el sistema puede buscar esa información en tiempo real y proporcionársela como contexto antes de generar la respuesta (un enfoque conocido como RAG).

Pero además del acceso a datos, el modelo necesita algo más: herramientas externas.

En arquitectura de sistemas de IA estas herramientas se conocen como tools. No son más que funciones que se ejecutan fuera del modelo, por ejemplo:

  • consultar una base de datos
  • leer un correo electrónico
  • buscar información en un ERP
  • generar un documento
  • enviar un mensaje

En muchas empresas estas herramientas se exponen como APIs internas.

El componente que conecta todo: el orquestador

Al componente de software que coordina todas estas piezas se lo suele llamar orquestador.

Su función es:

  • decidir cuándo invocar al modelo
  • ejecutar las tools sugeridas
  • incorporar los resultados al contexto
  • mantener el estado de las conversaciones
  • integrar APIs y sistemas internos

En otras palabras, convierte capacidades técnicas aisladas en un proceso coherente.

Cuando todas estas partes trabajan juntas aparece un concepto que se volvió cada vez más común en los últimos años: el agente de IA.

Qué es realmente un agente de IA

Un agente no es simplemente un modelo ni una herramienta aislada.

Es el sistema completo que combina:

  • modelo
  • orquestador
  • herramientas
  • acceso a datos

para cumplir un objetivo específico dentro de la organización.

Aunque en la industria el término “agente” se usa de forma bastante flexible, la idea central es siempre la misma: un sistema donde el modelo puede razonar sobre un problema, consultar información, utilizar herramientas y avanzar paso a paso hasta completar una tarea.

A nivel técnico muchos agentes comparten una arquitectura muy similar. Lo que realmente cambia son las herramientas disponibles, los datos a los que pueden acceder y el objetivo que deben cumplir. El mismo tipo de sistema puede convertirse en un agente de cobranzas, de soporte o de ventas, simplemente cambiando su misión y las herramientas con las que opera.

Una analogía simple

Imaginemos que querés ir desde tu casa hasta el aeropuerto.

El modelo sería el sistema de navegación que calcula la mejor ruta. Analiza el mapa, el tráfico y las calles disponibles. Pero ese sistema no maneja el auto.

El orquestador sería el conductor. Es quien ejecuta las acciones: doblar, frenar, tomar una autopista o salir en una bajada.

Y el agente es el sistema completo funcionando para cumplir el objetivo: llevarte desde el punto A hasta el punto B.

Cuando los datos no pueden salir: ejecutar modelos localmente

Hoy muchos modelos de inteligencia artificial se consumen mediante APIs ofrecidas por proveedores como OpenAI, Google o Anthropic. En sus planes empresariales, estas compañías se comprometen a no utilizar los datos enviados en los prompts para entrenar sus modelos, algo clave para organizaciones que manejan información sensible.

Sin embargo, en empresas con requisitos de compliance muy estrictos también existe otra opción: ejecutar modelos open source localmente dentro de la propia infraestructura.

Esto permite que la información sensible nunca abandone los servidores internos.

Modelos como Qwen, entre otros, pueden ejecutarse localmente en hardware que una empresa mediana puede permitirse adquirir. En muchos casos no se trata de inversiones millonarias, sino de infraestructura que puede costar algunos miles de dólares, ya que solo se necesita ejecutar el modelo (inferencia), en vez de entrenarlo.

Qué cambia cuando la IA entra en los procesos

Cuando esta arquitectura se aplica a procesos reales empiezan a aparecer diferencias importantes.

Tomemos el caso del seguimiento de cobranzas.

Los sistemas tradicionales pueden enviar recordatorios automáticos de pago, algo que existe desde hace décadas.

Un agente de IA puede hacer algo distinto: leer las respuestas del cliente, entender objeciones, proponer alternativas de pago y mantener una conversación coherente hasta resolver la situación o escalarla cuando es necesario.

Un caso frecuente ocurre cuando el cliente solicita el listado de movimientos de su cuenta corriente para conciliar registros.

Un agente puede consultar el ERP, reunir facturas, recibos y notas de crédito, generar automáticamente el detalle correspondiente y enviarlo al cliente, continuando la conversación si aparecen diferencias.

Incluso cambia problemas técnicos clásicos

Algo similar ocurre con el pricing competitivo.

Durante años muchas empresas resolvieron este problema mediante scraping de sitios web o consumo de APIs públicas de marketplaces.

El problema es que los scrapers tradicionales suelen romperse cuando una web cambia su estructura HTML.

Un agente de IA puede trabajar de forma más flexible: recibir el contenido de una página y pedirle al modelo que identifique y extraiga la información relevante, incluso si la estructura cambia.

En la práctica funciona como un scraping mucho más dinámico, capaz de interpretar contenido no estructurado y adaptarse a cambios en el formato.

La pregunta correcta

Un modelo por sí solo no cambia demasiado la forma en que funciona una empresa.

Pero cuando un agente puede leer correos, entender documentos, consultar sistemas internos y ejecutar acciones dentro de procesos operativos, la inteligencia artificial deja de ser una herramienta aislada.

Empieza a convertirse en parte del sistema operativo de la organización.

En ese punto la pregunta deja de ser si una empresa permite “usar ChatGPT”.

La verdadera pregunta es:

¿la inteligencia artificial participa de los procesos de tu empresa o todavía vive encerrada dentro de una ventana de chat?

Si estás explorando cómo aplicar este tipo de arquitecturas a procesos reales dentro de tu organización, probablemente el primer paso no sea elegir un modelo, sino identificar dónde la IA puede integrarse dentro de los flujos de trabajo existentes.

En muchos casos, una conversación técnica breve alcanza para detectar oportunidades concretas de implementación.

Si querés hablar sobre posibles casos de uso o intercambiar ideas sobre cómo integrar estas arquitecturas en sistemas reales, podés encontrar mis datos en la sección de contacto.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *