El 24 de noviembre marca una fecha silenciosa, pero fundamental a nivel global: la UNESCO adoptó la primera gran recomendación internacional sobre la ética de la inteligencia artificial. Aunque para muchos puede parecer una efeméride más, esta decisión ya afecta la vida diaria de niños, estudiantes, profesionales, comunicadores y empresarios ecuatorianos. Hoy el recordatorio global de un compromiso colectivo: situar la ética como eje central del desarrollo tecnológico.

Ese día, en 2021, la UNESCO adoptó oficialmente la Recomendación sobre la Ética de la Inteligencia Artificial, el primer marco internacional que reúne principios, valores y directrices concretas para guiar cómo se crea, implementa y regula la IA en el mundo.

Un acuerdo histórico aprobado por 193 países durante la 41ª Conferencia General celebrada en París, que marcó un antes y un después para gobiernos, empresas, comunicadores, educadores y ciudadanos.

Publicidad

Lo positivo y lo negativo de la inteligencia artificial en los emprendedores de Ecuador: ‘Eviten perder autenticidad’

La ética dejó de ser un discurso aspiracional y pasó a convertirse en una hoja de ruta urgente: garantizar derechos humanos, proteger la privacidad, promover la transparencia, incluir todas las voces y exigir rendición de cuentas en cada sistema automatizado.

Por eso, cada 24 de noviembre no solo conmemoramos una firma diplomática. Recordamos que la tecnología que transforma nuestras vidas también debe respetarlas. La inteligencia artificial no puede avanzar sin alma. Y esa alma se llama ética.

Una ética que toca la educación, la comunicación, la ciencia, la cultura, el periodismo y la vida cotidiana. Una ética que define qué tan humano será el futuro que estamos construyendo.

Publicidad

Ética en la reputación digital y en el uso diario de la IA

Vivimos tiempos donde la línea entre lo real y lo fabricado se desdibuja. Crisis informativas, campañas políticas manipuladas y una avalancha de “realidades” digitales nos empujan a repensar la ética como pilar esencial de nuestra convivencia y reputación en el entorno online.

Publicidad

Es fácil ver anuncios sobre automatización y contenido generado por inteligencia artificial, lo importante, es no abandonar la autenticidad en busca de ahorro de tiempo y aumento de productividad. Las marcas y los profesionales que actúan con criterio ético —desde la transparencia en sus procesos hasta el respeto por la privacidad y la inclusión de voces diversas— no solo se diferencian. Se consolidan como referentes confiables en medio del ruido digital.

La ética, cuando se vive con coherencia, deja de ser un discurso aspiracional y se convierte en un activo real de liderazgo con propósito.

Deepfakes y manipulación electoral: el nuevo desafío

Durante las elecciones de 2025 en Ecuador, el contenido falso distribuido en redes fue creado o manipulado, en su mayoría, con inteligencia artificial. Los deepfakes —videos o audios fabricados por IA— se usaron para suplantar voces e imágenes de noticieros y candidatos, influyendo en el debate público y la intención de voto. Si la tecnología no va de la mano de la ética y la transparencia, nadie está a salvo.

Publicidad

Decálogo para el uso ético de la IA en comunicación (extraído del Manual Estratégico de IA y Prompts para Comunicadores)

  1. Actuar con transparencia: siempre declarar si un contenido fue creado, asistido o editado por IA.
  2. Preservar la autenticidad: no permitir que la IA sustituya nuestra voz, juicio ni principios.
  3. Validar la información: verificar datos generados por IA antes de difundirlos.
  4. Usar con propósito: emplear la IA como herramienta al servicio de objetivos claros y humanos.
  5. Promover la inclusión: evitar sesgos y amplificar voces diversas mediante el uso consciente de la tecnología.
  6. Respetar la privacidad: no alimentar modelos con datos sensibles o personales sin consentimiento.
  7. Asumir responsabilidad: nunca delegar en la IA el peso ético de una decisión comunicacional.
  8. Evitar la manipulación emocional: no usar IA para inducir emociones falsas ni tergiversar la realidad.
  9. Proteger la seguridad digital: prevenir usos maliciosos, fraudes o suplantaciones desde nuestros entornos.
  10. Formarse continuamente: actualizar el criterio profesional ante cada avance de la IA.

La ética en inteligencia artificial ya es la brújula para navegar la nueva realidad. El 24 de noviembre: una fecha para no olvidar que la identidad y la reputación siguen siendo, ante todo, responsabilidad y decisión humanas.

Chatbots y tareas hechas por IA: ¿apoyo o trampa educativa?

El 85 % de los estudiantes ya utiliza la IA de forma rutinaria en sus estudios y el 18 % entrega trabajos totalmente generados por IA sin modificar.

La pregunta ética es urgente: ¿educamos para aprender o solo para delegar y pasar? Si la IA se convierte en muleta constante, la línea entre apoyo y trampa se vuelve cada vez más fina.

A los docentes que sienten que sus estudiantes ya no escriben, solo copian: La inteligencia artificial no es el problema. ChatGPT puede generar respuestas, pero no puede formar pensamiento crítico. Esa sigue siendo nuestra tarea. No se trata de prohibir la IA, sino de enseñar a dialogar con ella, de usarla como punto de partida, no como atajo.

Cuando ayudamos a nuestros estudiantes a hacer buenas preguntas, evaluar fuentes y construir su propia voz, estamos educando para la vida, no solo para aprobar un curso. Porque en la era de la automatización, el verdadero aprendizaje es el que no se puede delegar.

El 24 de noviembre no es solo una fecha; es un recordatorio de que la ética en inteligencia artificial ya no es opcional. Es la base para que nuestra voz, nuestra identidad y nuestra autoridad tengan sentido y propósito en la era digital, y toque a cada estudiante, profesional y ciudadano.

¿Quién habla cuando no eres tú?Tu liderazgo no puede depender de datos sin alma.Tu reputación merece propósito, criterio y estrategia.

Consejos prácticos para una IA ética en la vida real ecuatoriana

  1. Exige transparencia: pregunta y asegúrate de saber si una imagen, audio o texto fue creado con IA.
  2. Educa sobre los límites: enseña a tu familia, estudiantes o colegas los riesgos de usar IA para engañar o manipular.
  3. Denuncia el abuso: reporta deepfakes, bulos y manipulaciones ante medios, instituciones y plataformas digitales.
  4. Usa chatbots de forma responsable: como herramienta de apoyo, no sustituto absoluto de la creatividad o el juicio propio.
  5. Actualiza tu conocimiento: lo que hoy parece ciencia ficción puede volverse realidad viral mañana.
  6. Construye tu reputación: verifica cómo las IA conversacionales y buscadores presentan tu nombre, marca o empresa. (I)