El término que escuchás todos los días
Desde noviembre de 2022 — cuando OpenAI lanzó ChatGPT — el término "IA generativa" se metió en todas las conversaciones. Tu jefe lo menciona. Tus colegas lo usan. La prensa lo amplifica. Pero casi nadie sabe explicarlo bien en 3 minutos.
Esta sesión te da la versión honesta y técnica. Cuando termines vas a saber qué pasa por dentro, qué puede y qué no puede hacer, y por qué a veces se equivoca con tanta confianza.
Qué es realmente
La Inteligencia Artificial Generativa son sistemas que producen texto, código, imágenes o audio nuevo a partir de instrucciones en lenguaje natural.
El motor que mueve casi todo lo que ves hoy se llama Large Language Model (LLM). Vamos a explicar qué es porque es el concepto que importa entender.
Cómo funciona un LLM · en serio
Un LLM es una red neuronal entrenada con una cantidad masiva de texto · cientos de miles de millones de palabras (Wikipedia, libros, papers, código de GitHub, foros, periodismo).
Durante el entrenamiento aprendió una sola cosa: dado un texto, predecir cuál es la palabra siguiente más probable.
Eso es todo. No piensa. No razona en el sentido humano. Predice palabras una por una, y lo hace tan bien que parece que piensa.
| Input | "El gato se subió al ..." |
| Predicción del modelo | techo (87%) · árbol (8%) · sillón (3%) · auto (1%) |
| Selección | Toma "techo" · agrega al input · repite predicción |
| Resultado | "El gato se subió al techo y empezó a ..." |
Esa secuencia · palabra por palabra · es lo que produce cada respuesta. Todo lo demás (que parezca que entiende, razona, sabe) es consecuencia de qué tan bien aprendió a predecir.
Tokens · la unidad que importa
Los modelos no procesan palabras enteras. Procesan tokens · fragmentos de palabra. Algunas palabras cortas son 1 token; otras más largas pueden ser 2-3 tokens.
Regla práctica para español:
- 1 palabra promedio ≈ 1.5 tokens
- 1 página de texto ≈ 500 tokens
- 1 libro de 200 páginas ≈ 100,000 tokens
Importa porque los planes de pago se cobran por tokens. Si estás con Claude Pro (USD 20/mes) no pensás en esto · ya tenés un cupo generoso. Si pasás a API key directa, sí pagás por cada millón de tokens consumidos.
Ventana de contexto · cuánto puede ver Claude en una conversación
La ventana de contexto es cuánta información puede tener Claude "en mente" en una sola conversación. Hoy:
- Claude Sonnet · 200,000 tokens (~150,000 palabras · 300 páginas)
- Claude Sonnet 1M · 1,000,000 tokens (~750,000 palabras · 1,500 páginas)
- Claude Opus · 200,000 tokens
- Claude Haiku · 200,000 tokens
Para que te hagas idea · 1 millón de tokens es todo Don Quijote + toda la Odisea + toda la Constitución peruana en una sola conversación. Esa es la capacidad de Claude Sonnet 1M cuando está activada.
Las 5 trampas que tenés que conocer
Trampa 1 · Alucinación
Cuando el modelo no sabe algo, no admite que no sabe · inventa con tono confiado. Es el riesgo número uno para profesionales serios.
Ejemplo real: si le preguntás "¿en qué año Perú firmó el TLC con Singapur?" puede inventarte una fecha falsa. La respuesta sonará segura. Verificá siempre datos críticos: fechas, números, nombres, citas legales, jurisprudencia, normas.
Trampa 2 · Privacidad
Cada modelo tiene reglas distintas sobre qué hace con tu input:
- Plan Free de Claude · puede usar tu input para mejorar el modelo
- Plan Pro · no entrena con tus datos por defecto
- Plan Team / Enterprise · no entrena, audit logs, residencia de datos configurable
Si manejás información sensible (contratos firmados, datos personales, secretos comerciales), no uses el plan Free. Como mínimo Pro. Idealmente Team o Enterprise.
Trampa 3 · Fecha de corte de entrenamiento
Cada modelo conoce hasta cierta fecha. Eventos posteriores a su corte son invisibles para él · no los inventa, simplemente no los conoce. Para hechos recientes (sentencia del mes pasado, norma publicada ayer) usá web search · una herramienta separada que activás en planes pagos.
Trampa 4 · Cálculos numéricos exactos
El modelo razona pero comete errores aritméticos. Para cálculos críticos (impuestos, dividendos, valuaciones), pedile que escriba la fórmula y verificala vos manualmente · no le creas el resultado directo.
Trampa 5 · Dependencia sin criterio
El error más sutil. Empezás usando Claude para borradores, después para análisis, después para decisiones. Llega un día en que aceptás sus outputs sin revisar. El día que un cliente pregunte "¿por qué pusiste esto?", tenés que poder responder con tu criterio profesional. La IA acelera. Vos firmás.
Anthropic · quién está detrás de Claude
Anthropic es la empresa fundada en 2021 por ex-investigadores de OpenAI (incluidos Dario y Daniela Amodei) con foco explícito en seguridad de la IA.
Su tesis: si vamos a construir sistemas cada vez más capaces, hay que construirlos honestos, útiles e inofensivos desde el día uno. Es la diferencia principal con otros laboratorios · el énfasis en hacer modelos que admitan cuando no saben algo, que rechacen pedidos peligrosos, que no manipulen al usuario.
Por eso Claude tiende a ser más "honesto que su utilidad" · puede frustrar cuando le pedís algo que considera riesgoso, pero también es más confiable cuando importa.
Resumen ejecutivo
- IA generativa = LLM = sistema que predice la siguiente palabra y produce texto/código/imágenes
- Tokens = unidad mínima (~1.5 por palabra en español) · cobro por uso
- Ventana de contexto = cuánto puede ver en una conversación (200k a 1M tokens hoy)
- 5 trampas a evitar: alucinación · privacidad · fecha de corte · cálculos · dependencia
- Anthropic se diferencia por foco explícito en seguridad de IA
Ejercicio práctico
- Entrá a claude.ai y creá cuenta gratuita
- Pedile que te explique algo que ya dominás profundamente · evaluá precisión
- Pedile un dato puntual que sabés que es falso (ej. "¿quién ganó el mundial de fútbol 2030?") · observá si admite que no sabe o inventa
- Pedile que cite una fuente · verificá si la fuente existe
En la próxima sesión: las 4 modalidades de Claude (Chat, Code, Cowork, Agents). Mapa rápido sin profundizar · al final del Lectio sabés cuál es la tuya.