IA (Inteligencia Artificial)
Sistemas informáticos capaces de hacer tareas que normalmente requieren inteligencia humana: entender lenguaje, reconocer imágenes, hacer sugerencias, etc.
Reglas simples y prácticas para usar herramientas de inteligencia artificial de forma segura y responsable, especialmente pensadas para personas no expertas.
Sin foros. Sin comentarios. Solo información clara sobre qué hacer, qué no hacer y por qué.
Aquí, “IA” significa sobre todo herramientas que pueden generar texto, imágenes, código o audio a partir de lo que tú escribes (tus indicaciones o prompts).
No son magia ni son personas. Son programas entrenados con grandes cantidades de datos para “adivinar” la siguiente palabra (o el siguiente píxel) más probable.
Distintas IAs son buenas en cosas distintas: algunas son asistentes de chat, otras son especialistas (traducción, programación, imágenes, audio) y otras están “ocultas” dentro de apps que ya usas.
“Haz mis deberes.”
“Explícame la fotosíntesis como si tuviera 12 años, en un párrafo corto y con un ejemplo sencillo, y luego hazme 3 preguntas tipo test para ver si lo he entendido.”
“Redacta un correo educado a un compañero pidiéndole una actualización sobre el proyecto X. Quiero un tono cercano pero profesional. Después dame 2 versiones más cortas.”
Muchas herramientas de IA bloquean este tipo de peticiones. Incluso si no lo hacen, tú sigues siendo responsable de las consecuencias.
Para decisiones médicas, legales o financieras, usa la IA solo como herramienta de pre‑lectura, no como autoridad final.
Cuanto más importante sea la decisión (salud, dinero, trabajo, temas legales), más deberías:
Sistemas informáticos capaces de hacer tareas que normalmente requieren inteligencia humana: entender lenguaje, reconocer imágenes, hacer sugerencias, etc.
El “cerebro” de la IA: el sistema matemático que ha aprendido a partir de muchos datos y ahora genera respuestas o contenidos.
Lo que escribes o dices a la IA para pedirle algo. Un buen prompt es específico, claro y da algo de contexto.
Cuando la IA responde con seguridad pero en realidad se equivoca o inventa (por ejemplo, una cita o una fuente que no existe).
Una forma de injusticia o parcialidad en las respuestas, que puede venir de los datos con los que se entrenó el modelo (estereotipos, desequilibrios, etc.).
Los mensajes anteriores de la conversación. Muchas herramientas los usan para “recordar” de qué se está hablando, aunque tras cierto punto pueden olvidar las partes más antiguas.
No. Genera respuestas a partir de patrones en los datos con los que fue entrenada. No entiende como un humano y puede estar equivocada o desactualizada.
Muchos servicios guardan lo que escribes para mejorar el sistema. Evita enviar cosas que no compartirías con un desconocido.
A menudo sí, como tutor: para explicar, resumir o hacerte preguntas. Entregar trabajos hechos por la IA como si fueran tuyos puede ir contra las normas del centro.
En muchas empresas sí, para borradores e ideas, pero suele estar prohibido pegar datos internos o de clientes. Revisa siempre la política de tu empresa.
Muchas herramientas entienden varios idiomas e incluso algunas variedades locales. Si le cuesta, prueba a mezclar con lengua estándar o pídele primero que “traduzca este dialecto a un español claro”.
Confía en tu sentido común. Puedes pedir a la IA que revise de nuevo, que muestre fuentes o que dé otro punto de vista, y siempre puedes ignorar una respuesta que no te convence.