Aller au contenu
Circuit magazine Publié le 7 avril 2026

La esfera hispánica

IA y responsabilidad profesional: riesgos, obligaciones y desafíos éticos

Por Maria Ortiz Takacs, trad. a.

Antes de la gran revolución tecnológica de las últimas décadas, la terminología inexacta y la falta de comprensión del texto de partida —con sus consecuentes alteraciones de significado— eran los errores más susceptibles de generar responsabilidad profesional. La producción de estructuras sintácticas poco habituales, así como las cuestiones de registro, literalidad o falta de fluidez en la traducción, entre otras, si bien serias, no solían dar lugar a impactos económicos. A menos que se cometiera un error garrafal que causara un perjuicio significativo a un tercero, la traducción era una profesión relativamente al abrigo del riesgo.

Pese a que los principios generales del ejercicio profesional de la traducción permanecen vigentes, ante los peligros que engendra el uso poco diligente de determinadas tecnologías, en la actualidad, la dimensión ética adquiere una relevancia particular. Entre los deberes deontológicos inherentes a la práctica profesional, se destacan dos aspectos que, antes de la transformación digital, podían protegerse mediante medidas básicas, pero que hoy tienen un alcance más amplio. Ellos son el respeto por la confidencialidad de la información y la responsabilidad por daños que puede derivar tanto de la divulgación de dicha información como de los errores generados por los modelos de inteligencia artificial (IA).

En las jurisdicciones de tradición romano-germánica, como Quebec, el concepto de responsabilidad civil se refiere a un conjunto de deberes jurídicos que se imponen a quien ha causado un daño a otro. La responsabilidad civil comprende, por un lado, un deber de prevención y, por otro, una vez producido el daño, la obligación de resarcirlo. Pese a que estos deberes no se aplican únicamente al campo de la traducción, la ausencia de un uso reflexivo de las herramientas de IA incrementa la exposición de nuestra profesión a consecuencias indeseables. El daño puede ser patrimonial, es decir, afectar intereses susceptibles de apreciación pecuniaria, o extrapatrimonial, configurado como consecuencia de la afectación de intereses que no pueden cuantificarse, a primera vista, en dinero. En concreto, un daño patrimonial podría derivarse de un error de traducción que obligue al cliente a reimprimir el manual de instrucciones de un producto. En ese caso, el cliente deberá asumir los gastos de impresión dos veces. Diferente es el supuesto en el que una filtración de información confidencial afecta negativamente la reputación de una empresa o de un individuo. ¿Cómo se cuantifica ese daño intangible? No existe una única respuesta a esta pregunta. Mientras que en algunas jurisdicciones se utilizan baremos como guía para realizar los cálculos, en otras, el resultado quedará sujeto a la valoración del caso concreto. De una u otra forma, el contexto tecnológico actual ha incrementado la magnitud del daño que podría derivarse del uso de sistemas de IA. Incluso si se suscribe un seguro contra errores u omisiones, el perjuicio puede superar ampliamente la cobertura. Los efectos dañosos pueden comprometer el prestigio profesional de la traductora y, en casos extremos, dar lugar a una sanción, una suspensión, una demanda por daños y perjuicios e incluso la pérdida de la matrícula profesional.

La responsabilidad está en el teclado
La frecuencia con la que la prensa informa sobre procesos sancionatorios y demandas judiciales en relación con el uso imprudente de la IA no deja de aumentar. ¿Pero cuáles son los riesgos concretos que su uso negligente representa para nuestra profesión? Los errores terminológicos, los calcos estructurales y otra gran variedad de faltas persistentes que cometen los modelos de IA habitualmente no son tan graves como la filtración de datos confidenciales y la creación de información inexistente («alucinaciones»).

OpenAI, advierte sobre las alucinaciones[1] que produce ChatGPT. La empresa las define como enunciados generados por la IA, posibles pero falsos. Relaciona el fenómeno con la falta de entrenamiento del modelo y con los métodos de evaluación de las solicitudes de los usuarios. El sistema prefiere «arriesgar» una respuesta para tener alguna posibilidad —por remota que sea— de ofrecer una solución correcta. Esta baja tolerancia a la incertidumbre causa tres tipos principales de alucinaciones: errores fácticos (resultados matemáticos o hechos históricos incorrectos), contenido inventado (jurisprudencia inexistente, estadísticas falsas) y respuestas incoherentes (contradicciones, repetición de errores cuando se solicita expresamente evitarlos).

La oficina del Commissaire à la protection de la vie privée du Canada[2] explica que la IA generativa se alimenta de una recopilación masiva de información que incluye datos personales de los canadienses[3]. La oficina formula varias recomendaciones[4] para usar la IA en el ámbito profesional, como incluir una mención cada vez que se recurra a dicha tecnología para tomar decisiones o crear contenido, firmar un consentimiento informado cuando las circunstancias lo exijan y establecer medidas para proteger el derecho a la privacidad. Pero tal vez la recomendación más importante y obvia, aunque la más desatendida, sea restringir (y preferiblemente evitar) la divulgación de información personal o confidencial. Una vez que ingresamos información en un sistema de IA, no sabemos quién podrá verla ni cómo se utilizará. Por un lado, las políticas de privacidad de los sistemas de IA son documentos extensos y farragosos que muy pocos usuarios leen. Por otro, incluso si las versiones de pago de modelos como ChatGPT, Claude o Gemini prometen no usar la información de los usuarios para entrenar sus sistemas, ninguna empresa está exenta de sufrir ataques de ciberseguridad en los que podrían filtrarse millones de datos personales y comerciales.

A principios de 2023, la oficina del Commissaire publicó los resultados de una encuesta sobre los riesgos relacionados con la protección de la vida privada[5]. El 48 % de los canadienses dijo estar de acuerdo con el enunciado: «Tengo la certeza de contar con los conocimientos suficientes para comprender cómo las nuevas tecnologías pueden afectar la protección de mi vida privada», mientras que el 34 % expresó desacuerdo y el 17 % permaneció neutral. No sería descabellado suponer, entonces, que estos porcentajes también se aplican al uso de información de terceros. Lo relevante es que, a fin de cuentas, la privacidad de las personas físicas y jurídicas corre riesgos concretos de filtración, con las consecuencias que ello acarrea: usurpación de identidad, incumplimientos normativos, divulgación de secretos comerciales y, desde ya, pérdidas financieras. Estas repercusiones pueden comprometer la reputación de individuos y empresas, e incluso la continuidad de sus actividades comerciales.

En la práctica profesional, las filtraciones de información confidencial y las alucinaciones derivadas de la IA pueden tener consecuencias nefastas no solo para los clientes, sino también para las traductoras, pues toda persona tiene el deber de prevenir el daño y de resarcirlo en caso de haberlo causado. En definitiva, en un contexto tecnológico cada vez más complejo, la responsabilidad profesional ya no se oculta entre bastidores, sino que se sitúa en el centro del escenario de la práctica traductora. Por ende, el uso de herramientas de IA en la traducción exige una actitud crítica y cautelosa, acompañada de una perspectiva reflexiva que considere sus beneficios y riesgos. La responsabilidad está en el teclado —no en la tecnología que asiste al proceso—, pues en dicho espacio confluyen la toma de decisiones, el criterio profesional y la supervisión humana.

[1] OpenAI. Why language models hallucinate. https://openai.com/index/why-language-models-hallucinate/

[2] Termium. Comisaría de Protección de Datos Personales de Canadá.
https://www.btb.termiumplus.gc.ca/tpv2alpha/alpha-eng.html?srchtxt=Commissariat+protection+vie+privée+Canada

[3] Commissariat à la protection de la vie privée au Canada. L’intelligence artificielle, la protection de la vie privée et votre entreprise
https://www.priv.gc.ca/fr/sujets-lies-a-la-protection-de-la-vie-privee/technologie/intelligence-artificielle/

[4] Ibidem

[5] Commissariat à la protection de la vie privée au Canada. Sondage auprès des Canadiens sur les enjeux liés à la protection de la vie privée de 2022-2023. Figura 5.
https://www.priv.gc.ca/fr/mesures-et-decisions-prises-par-le-commissariat/recherche/consulter-les-travaux-de-recherche-sur-la-protection-de-la-vie-privee/2023/por_ca_2022-23/#fig04

Autres lectures

Circuit magazine

It all comes down to trust: Rethinking the professional responsibilities of educators in the age of AI  

Circuit magazine

De la responsabilité professionnelle des terminologues

Circuit magazine

What is the translator’s duty in an AI-driven world?

Découvrez l’ancienne version de notre magazine Circuit

Vous pouvez consulter toutes les anciennes versions du magazine Circuit dans notre site d’archives.

 

Besoin de services linguistiques professionnels?

En devenant membres de l’Ordre, les traductrices et traducteurs agréés, les interprètes agréés et les terminologues agréés se sont engagés à maintenir leurs compétences à jour, à adhérer à un code de déontologie et, surtout, à respecter des normes élevées de qualité de service.