Article body

1. Introducción

Desde hace años, se viene experimentado un auge de la lingüística de corpus, especialmente en sus enfoques cuantitativos. Se trata de una técnica de recogida y análisis de datos excelente para detectar determinado tipo de fenómenos textuales, esencialmente «manifiestos» digitalmente, es decir, aquellos que el software es capaz de detectar: extracción terminológica, repeticiones, frecuencias, colocaciones, etc. Como técnica de investigación y también como aplicación profesional (por ejemplo, en estudios terminológicos) se trata, indiscutiblemente, de un contexto de trabajo ya bien desarrollado en nuestro campo (Baker 1995; Bowker 2001; Laviosa 2002; Baker y Egbert 2016; Calzada 2017; entre otros). Por otro lado, la disciplina realiza un esfuerzo esencialmente teórico en los estudios de traducción e interpretación (ETI) con el fin de identificar procesos cognitivos en la fase de transferencia en traducción, entre ellos los centrados en las estrategias de traducción, técnicas y demás operadores traslativos. De igual manera, existe un esfuerzo reciente, encomiable y de enorme utilidad tanto investigadora como profesional, para describir teóricamente y así poder trabajar con nociones de calidad complejas que integran un desglose tanto teórico como empírico de la noción de error en traducción (véase, por ejemplo, el instrumento armonizado entre los sistemas de control de calidad DQF y MQM)[1].

Sin embargo, es frecuente encontrar en sendas vertientes de investigación, sobre estrategias (fase de transferencia) o errores traslativos (fase de evaluación de la calidad), ciertas deficiencias en cuanto al papel del análisis del contenido en origen (fase de pretraducción), coordenada imprescindible para entender las demás fases del proceso traslativo. Varios autores marcan la importancia del análisis de los tipos de contenido complejo en el origen (Nord 1988/2005; Morón 2017; De la Cova 2017; Szymyslik 2019; etc.) y, sin embargo, los ETI no parecen haber sido capaces de superar la fase teórico-descriptiva, con pocas aproximaciones empíricas, cognitivas y sistematizadas. En esta línea, en el grupo de investigación Interglosia HUM 996 de la Universidad Pablo de Olavide (Sevilla, España), se da un creciente interés por conocer la complejidad o densidad conceptual (Strauss y Corbin 1990) de los tipos de contenido traducibles (no solo desde una perspectiva temática o terminológica, sino sobre la base de la complejidad de los diferentes tipos de contenido textual) y cómo la comprensión de dicha complejidad determina las siguientes fases del proceso y la calidad del producto final. Dicho interés tiene reflejo en diferentes propuestas, algunas en el seno de este grupo de investigación (Relinque 2016; De la Cova 2017; Szymyslik 2019; etc.) y otras propuestas que se irán desgranando en este trabajo por su capacidad ilustrativa.

Quizás el constructo complejo (o denso) no manifiesto que más atención ha recibido en los ETI es la noción de problema de traducción (Nord 1988/2005; Mayoral 2001; De la Cova 2017, quien ofrece un completo repaso histórico del concepto, con una aplicación novedosa en el ámbito de la localización; o Szymyslik 2019; entre otros). Sin embargo, el constructo problema de traducción no goza de consenso en la disciplina y, como indica De la Cova (2017: 123 y ss.), suele aparecer mezclado con otros conceptos complejos como la dificultad o el error de traducción. Además, según estos autores, este concepto genera ambigüedad, pues suele vincularse a nociones más o menos subjetivas, como la experiencia del traductor y el contexto en el que se enfrenta al problema (Mayoral 2001; De la Cova 2017), o la percepción del traductor (Hurtado 2017), que viene a explicar por qué, independientemente de la experiencia del traductor, pueden darse interpretaciones distintas respecto al elemento problemático, derivadas de la evaluación de las variables del entorno, los recursos disponibles, el skopos, etc.

Este trabajo presenta dos objetivos: 1) repasar las aportaciones de los enfoques metodológicos cualitativos a los ETI, desde la perspectiva de la teoría fundamentada (Grounded Theory), 2) ilustrar las posibilidades y limitaciones de las herramientas de trabajo disponibles aplicadas a los ETI, al observar constructos complejos no manifiestos. Se pone el foco en aquellos conceptos teóricos, asumidos por los ETI, que permitirán ejemplificar las limitaciones en cuanto a la aplicación de herramientas de investigación con corpus en nuestra disciplina. Como se advertirá, la complejidad de estos constructos y de la propia actividad de traducción, su dependencia del contexto traslativo y demás variables no manifiestas demandan nuevos avances en cuanto al diseño y aplicación de herramientas de tratamiento de corpus, desde un paradigma y enfoque cualitativo en los ETI.

2. Constructos complejos en los ETI

Mayoral (2001) expone los pilares a la hora de entender las carencias de los ETI en sus intentos de establecimiento como «ciencia». Mayoral presenta algunos de los elementos fundamentales de nuestra propuesta y nos pone en la pista de la escasa definición científica de muchos conceptos que nuestra disciplina asume como constructos teóricos validados (Mayoral 2001; Mayoral y Díaz Fouces 2011). Hoy en día, en un intento de proyectar las principales conclusiones de Mayoral a la práctica actual de la traducción, podríamos afirmar que incluso los debates identitarios surgidos en la profesión (y trasladados al debate académico), como ocurre con la transcreación o la posedición, nos llevan a pensar en la propia definición de conceptos abiertos y subjetivos, empezando por la noción de traducción (Tymoczko 2005; Tang 2007; Dam, Nisbeth Brøgger et al. 2019).

De esta forma, los ETI se han fundamentado durante años en la asunción de que conceptos como problema, dificultad, error, entre otros, resultan claramente definidos desde un punto de vista teórico y descriptivo. De hecho, existen no pocos trabajos (de gran valor, en cualquier caso, para el avance de nuestra disciplina) centrados en la definición de estos conceptos (véanse Hurtado 2001/2011 o Nord 2005, sobre la dificultad o el error de traducción), si bien, desde un prisma puramente teórico y desvinculado del origen (del texto y del contexto), entorno natural para su observación. En estas propuestas, el problema suele asociarse a un constructo de realidad objetiva, extrapolable e invariable, solucionable gracias a los procedimientos o técnicas de traducción disponibles (Nord 1988/1991) (fase de transferencia). Por el contrario, la dificultad refleja la singularidad y subjetividad del sujeto que observa el elemento problemático y su propia experiencia, y estas suelen estar asociadas a las propias condiciones del entorno trabajo (Nord 2009: 233), de forma que su superación (en la transferencia) supone el empleo de las herramientas adecuadas.

A pesar de este intento de objetivación, Mayoral y Muñoz (1997: 115) no consideran que esta definición esté exenta del elemento subjetivo, y apuntan a las limitaciones para el establecimiento de una operacionalización válida y validada de un constructo de tal complejidad. Los autores proponen una reflexión basada en el proceso de toma de decisiones en traducción que permita una mejor aproximación al constructo en sí, y entienden como problema todo elemento del texto original (TO) cuya solución traslativa «idónea» se desvía de la traducción por defecto, entendida como la versión de traducción inmediata, intuitiva e inicial del proceso traslativo (Mayoral y Muñoz 1997: 116), y que puede variar, según el perfil del agente traductor. Lo interesante de esta operacionalización es el reflejo de la complejidad de los constructos traslativos y la apreciación del valor del contexto traslativo. De hecho, Mayoral y Muñoz (1997) incluyen otro interesante atributo en su intento de teorización como es la variación del skopos, de forma que el problema de traducción surge cuando se ven alteradas las coordenadas del proceso comunicativo del TO y del texto meta (TM) e incluso debido a ciertos requerimientos técnicos propios del skopos traslativo, como pueden ser cuestiones específicas de maquetación o edición del TM distintas a las del TO. Si bien algunos de estos atributos requieren de una reconceptualización en su futura validación, como ocurre con la traducción por defecto, no exenta de apreciaciones subjetivas que limitan el alcance teórico del concepto, lo interesante es que señalan la necesidad de una apropiada conceptualización teórica, que ha tenido, hasta la fecha, poco eco en la comunidad investigadora.

Otro constructo complejo, asumido teóricamente por los ETI, es el del error de traducción, que suele definirse como la desviación del encargo de traducción que motiva el acto traslativo (Nord 1995, 2009). En consecuencia, el error surge cuando las decisiones adoptadas por el traductor (fase de transferencia) no permiten lograr los objetivos o funciones del skopos. Si bien esta definición tiene su base en el enfoque traslativo adoptado, como marco general de toma de decisiones, tiene un impacto evidente en el resto de planos (macro o microtextuales) cuyo cumplimiento es necesario para alcanzar la función del TM. Estos elementos se han ido incorporando a los modelos de evaluación de calidad, donde se ha pasado de un modelo estático, genérico, centrado exclusivamente en cuestiones microtextuales, para pasar a modelos más dinámicos, centrados en las variables del TO y del skopos comunicativo.

Estos estándares resultan interesantes en la categorización y clasificación de errores, entendidos como deficiencias en los TM. Es el caso del estándar DQF-MQM, asumido ampliamente por la industria de la traducción, cuyas categorías de error han logrado cierta armonización terminológica y conceptual, aún no muy común para otros constructos complejos. Sin embargo, como veremos, las herramientas de trabajo con corpus siguen sin poder analizar algunos de estos atributos de manera automática, dada su complejidad y carácter multivariable y dependiente del contexto.

A continuación, recogeremos algunos ejemplos de cómo se están abordando los constructos complejos (densos) en la investigación en los ETI, en estudios de corpus, con vistas a evaluar las herramientas de investigación disponibles.

3. Teoría fundamentada y traducción: codificación axial, categorías y cómo inferir teorías partiendo de datos de una de manera sistemática

Los ETI se basan esencialmente en análisis descriptivos, centrados en comprender algunos de los aspectos del proceso traductor: el TO y su comprensión para fines traductológicos, la fase de transferencia y la comprensión de parámetros funcionales, o el TM y su calidad. En la disciplina, se interrelacionan una diversidad de enfoques metodológicos que comparten este objetivo general y abarcan desde la identificación de los tipos de contenido, a partir de la terminología (enfoque cuantitativo), por ejemplo, hasta otras propuestas más interpretativas e ideológicas como pueden ser las metodologías centradas en el análisis de contenido, el análisis del discurso o el análisis crítico del discurso.

Algunas de estas metodologías cuentan con una aceptación extensa en la disciplina, por lo que se registran más estudios que van de una teoría o metodología concreta a la comprensión de unos datos determinados; frente a un número más limitado de estudios deductivos que parten de la comprensión de los datos para una teorización libre posterior. Quizás esto se debe a que la teoría fundamentada y otras propuestas metodológicas bottom-up (Strauss y Corbin 1990; Robson 2002; Böhm 2000/2004; Silverman 2011; entre otros) no han tenido gran impacto en nuestro campo hasta la fecha.

Según Strauss y Corbin (1990), la teoría fundamentada (Grounded Theory) es una metodología que permite elaborar teorías a través de la recopilación y el análisis sistemáticos de datos. Para ello, se establece un proceso cíclico entre los datos y su propio proceso de análisis con fines de teorización, mediante la detección de patrones y categorías, que implica «a constant comparative analysis, hence this approach is referred to as the constant comparative method» (Glaser y Strauss 1967: 7). Como metodología científica, se relaciona con otras propuestas de base cualitativa propias de las ciencias sociales. Estas propuestas pretenden responder a aquellas cuestiones científicas que no pueden abordarse solo desde una perspectiva puramente cuantificable, por la naturaleza compleja de lo estudiado o su densidad conceptual. Si bien el énfasis, en este caso, es en la densidad o profundidad cualitativa de conocimiento de la realidad, los datos incluidos en la investigación pueden tener una naturaleza cualitativa, cuantitativa o mixta. Según Strauss y Corbin (1990: 274), los principales ejes que definen este paradigma de investigación serían los siguientes:

  • Los investigadores aceptan plena responsabilidad sobre la interpretación de lo observado.

  • Desarrolla una teoría sustantiva según un método inductivo.

  • Hay una intención explícita de procurar la verificación de hipótesis mediante una recopilación amplia de datos interrelacionados y análisis teórico. Este proceso se lleva a cabo durante el desarrollo de un proyecto de investigación.

  • Trabaja con la idea de densidad conceptual (complejidad de constructo) que hace referencia a la riqueza del desarrollo de un concepto y sus relaciones, mediante una mayor familiarización con los datos asociados.

La clave está en la interacción del investigador con los datos y su mayor conciencia y comprensión del fenómeno estudiado. La conceptualización teórica propia de la teoría fundamentada se basa en la identificación de patrones, que se conciben teóricamente como categorías (Willig 2001/2013). La identificación de categorías en el análisis que permitan, a su vez, entender y relacionar los datos entre sí se realiza mediante la descripción objetiva y observable de atributos que permitan realizar un proceso de categorización replicable (operativización):

[categories] designate the grouping together of instances (events, processes, occurrences) that share central features or characteristics with one another. Categories can be at a low level of abstraction, in which case they function as descriptive labels (or concepts; see Strauss and Corbin 1990: 61).

Willig 2001/2013: 70

Desde el punto de vista de los ETI, este proceso de sistematización de los conceptos densos, como pueden ser el problema o el error, ofrece una respuesta explicativa e interpretativa a las principales preguntas de la disciplina. Contradictoriamente, no existen muchos estudios que realicen este esfuerzo científico con la fundamentación necesaria para objetivar y hacer observables nociones complejas de esta naturaleza. Sin embargo, es básico poder definir de una forma científicamente sólida y replicable el fenómeno que se va a estudiar, incluso (o especialmente) cuando se trata de metodologías cualitativas, descriptivas, interpretativas, etc.

El proceso de creación y asignación de categorías cualitativas a través de la comprobación de atributos observables en el texto o corpus es el que permite la inducción de observaciones teóricas a partir de los datos de estudio. El uso de las categorías no es exclusivo de la metodología basada en la teoría fundamentada, pero la forma de aplicar las categorías sí es distinta a otras metodologías próximas, como puede ser el análisis del contenido o el análisis del discurso:

[c]ategory identification in grounded theory is very different from content analysis, with which it should never be confused. Content analysis makes use of categories that are defined before data analysis commences and which are designed to be mutually exclusive. This is to say, the same data cannot be allocated to more than one category. By contrast, categories in grounded theory emerge from the data, they are not mutually exclusive and they evolve throughout the research process.

Willig 2001/2013: 70; énfasis de la autora

En la teoría fundamentada se establecen varias fases o formas de categorización, según su función y el grado de validación que alcanzan (Cohen, Manion et al. 2007: 493; énfasis de los autores):

[o]pen coding involves exploring the data and identifying units of analysis to code for meanings, feelings, actions, events and so on. The researcher codes up the data, creating new codes and categories and subcategories where necessary, and integrating codes where relevant until the coding is complete.

Axial coding seeks to make links between categories and codes, ‘to integrate codes around the axes of central categories’ (Ezzy 2002: 91); the essence of axial coding is the interconnectedness of categories (Cresswell 1998: 57). Hence codes are explored, their interrelationships are examined, and codes and categories are compared to existing theory.

Selective coding involves identifying a core code; the relationship between that core code and other codes is made clear (Ezzy 2002: 93), and the coding scheme is compared with preexisting theory. Cresswell (1998: 57) writes that ‘in selective coding, the researcher identifies a “story line” and writes a story that integrates the categories in the axial coding model’.

En concreto, la fase de codificación axial es la que da forma a la investigación. Estas fases permiten que el investigador desarrolle nuevos conceptos y establezca conexiones entre ellos que puedan dar lugar a nuevas teorías que, a su vez, tendrán la complejidad, riqueza o densidad que requiere toda formulación teórica válida. En el caso de los ETI, quizás uno de los problemas a los que se ha enfrentado la disciplina es que los principales conceptos, relacionados con la idea de universales (véase Baker 1993 o Toury 1995, entre otros) en muchos casos, o los constructos requeridos para explicar un proceso cognitivo tan complejo como el de la traducción no han contado con una formulación sistemática ni han estado sujetos a un proceso de validación inductiva como el que estas metodologías propugnan; así, se ofrecen modelos teóricos intuitivos o hipotéticos con más o menos valor explicativo, pero con poco potencial de investigación sistemática (Mayoral 2001).

La materialización de esta metodología en las diversas investigaciones en nuestro campo ha de venir de la mano de procesos adecuados y científicamente sólidos de codificación de corpus, esencialmente cualitativos, para estudiar fenómenos densos o complejos que no se pueden registrar de forma puramente textual y manifiesta (es decir, más allá de las frecuencias, colocaciones, etc. del texto digital legible). Con frecuencia y tradicionalmente, este proceso de codificación se viene realizando manualmente, dado que, como se explicará, las herramientas de investigación disponibles no responden aún, totalmente, a las necesidades que estos métodos plantean en el seno de la Traductología. Sí se cuenta con estudios que intentan aplicar herramientas de desarrollo propio o hacen uso de las funcionalidades, si bien parciales, de las herramientas existentes (propias de lingüística de corpus, etiquetado cualitativo y etnográfico de textos, memorias de traducción o herramientas de alineación, etc.) para su aplicación a los procesos traductológicos.

3.1. Ejemplos basados en conceptos complejos

En este apartado se presentan algunos ejemplos de estudios basados en conceptos que requieren una operativización cualitativa propia de la teoría fundamentada. Todos los estudios destacados comparten una serie de principios que definen tanto el objeto de estudio como la metodología aplicada, constituyendo contextos en los que la teoría fundamentada es o podría ser de gran utilidad:

  • Abordan constructos traductológicos complejos o marcados por una significativa densidad conceptual;

  • Abordan métodos de investigación corpus-driven, que pretenden describir la realidad del corpus con un enfoque bottom-up, no de mera descripción de los fenómenos del corpus, sino con una ulterior inferencia en el proceso investigador, para poder abordar metodológicamente la densidad y complejidad de los constructos observables;

  • Parten de una concepción funcionalista del proceso traductor; asumen la hermenéutica del proceso traslativo y la relevancia del proceso de toma de decisiones del traductor, así como el impacto que en ellas puede tener la variación del skopos (Mayoral y Muñoz 1997). Esta funcionalidad (contextualización, función comunicativa, adaptación a un receptor, etc.) es la que determina la necesidad de que sea un investigador humano el que categorice cada uno de los fenómenos interpretativamente, pues incorpora matices, implicaturas, efectos en el receptor, etc. que el software aún no puede detectar.

Estas propuestas abordan constructos cuyos atributos resultan difícilmente observables digitalmente y, por ende, no son estrictamente medibles gracias a las herramientas de lingüística de corpus. En algunos casos, se aportarán ejemplos concretos extraídos de los corpus para ilustrar la naturaleza compleja de constructos densos como el problema o el error de traducción, y los intentos de definición de sus atributos.

3.1.1. Ejemplo 1. Problemas de localización (De la Cova 2018)

El trabajo de De la Cova fue el punto de partida de esta línea de trabajo en el seno del grupo de investigación Interglosia. De la Cova, sobre un corpus monolingüe en inglés creado a partir de centros de ayuda de productos de almacenamiento en la nube, realiza un análisis basado en la teoría fundamentada del que se deriva una noción específica y, como se verá, válida y transferible de qué constituye un problema de traducción. A continuación, categoriza los diferentes tipos de problema y la relación entre ellos, siguiendo el proceso circular propio de esta metodología, basado en las diferentes fases de codificación.

De la Cova infiere que es el criterio de traducibilidad el que define objetivamente que un elemento constituya un problema de traducción, y, siguiendo a Toury (2010), define problema de traducción conforme a este criterio:

aquel elemento […] que, a pesar de su naturaleza subjetiva e interpretable, presenta condiciones observables de imbricación con el contexto (textual o paratextual) y una complejidad de traducibilidad que constituye o tiene el potencial de constituir un obstáculo para el traductor, independientemente de su experiencia, grado de automatización, tipos de recursos disponibles, etc.

De la Cova 2017: 149

De la Cova concluye que el atributo de traducibilidad, como criterio de complejidad o problema en la traducción, depende de la ausencia de un equivalente unívoco claro o de que un elemento traducible del texto origen presente más de una opción posible de traducción. Esta condición observable, a su vez, está sujeta al efecto hermenéutico del propio contexto. Por ejemplo, De la Cova analiza el siguiente caso en su corpus de ayuda en línea para herramientas de almacenaje en la nube:

[y]ou can store and access your files anywhere with Google Drive — on the web, on your hard drive, or on the go.

De la Cova 2017: 288

Aunque on the web aparentemente no presenta complicaciones, puede suponer un obstáculo de traducción en función del país de destino, del contexto y la finalidad del proyecto y de las directrices del cliente en cuestión (traducibilidad y contextualización funcional):

[e]l término web viene recogido en el diccionario de la RAE con su forma inglesa, no obstante, su grafía puede plantear dudas al traductor. Según el Diccionario panhispánico de dudas, el uso de web «escrito con mayúscula inicial, designa, por abreviación de la expresión inglesa World Wide Web», es decir, sería correcto decir: «Los usuarios encuentran en la Web todo lo que necesitan» (ejemplo inventado). Sin embargo, como adjetivo utilizado habitualmente acompañando a «página» o «sitio» se utiliza en minúscula, por ejemplo: «Accede al sitio web de la empresa para consultar nuestros datos de contacto» (ejemplo inventado). En cuanto a este uso, el traductor profesional tendría que utilizar con cautela la expresión del lenguaje común «una/la web» (una página web) como si fuera una denominación genérica, si el TO hace referencia a un sitio web, porque no son lo mismo. La guía de estilo de español de Microsoft (2011, p. 78) también recoge estas especificaciones en cuanto a género y grafía. Por otro lado, on the web también podría traducirse simplemente como en Internet. En este caso, on the web hace referencia a on the Google Drive website, por lo que traducir el fragmento como en la web no sería preciso.

De la Cova 2017: 288; énfasis de la autora

3.1.2. Ejemplo 2. Problemas traductológicos marcados por su función evocativa en la construcción de mundos ficticios (Szymyslik 2018, 2019)

Szymyslik (2019) recoge el modelo teórico de problema de traducción desarrollado por De la Cova (2017) y, sobre un contexto contrastivo centrado en la novela Fahrenheit 451[2] de Bradbury, consigue corroborar la transferibilidad teórica de la operativización original de De la Cova, sobre la base de la teoría fundamentada. En su caso, para determinar las coordenadas de contextualización de un tipo concreto de problema de traducción, el autor enuncia que los tipos de contenido que despiertan interés para su estudio (problemas de traducción centrados en la creación de mundos ficticios) se articulan también en torno a la noción de complejidad en la traducibilidad (ausencia de equivalencia unívoca o varias posibilidades de traducción). Asimismo, al operacionalizar la contextualización funcional propia del ámbito de estudio analizado, el autor describe, de forma adicional, el atributo de evocación, entendido como la función comunicativa de construir conceptual o proposicionalmente el mundo ficticio necesario en una obra creativa (de forma que permita conseguir un efecto de inmersión conceptual en la obra de ficción), para el tipo de problemas que analiza en su estudio.

Entre los problemas más significativos y que mejor ilustran estas coordenadas de análisis se encuentran los ejemplos de neosemia y neologismo ficticio, así como los realia reales o ficticios que aparecen en Fahrenheit 451, cuya complejidad a la hora de traducir, con la intención de mantener la evocación del mundo ficticio creado por Bradbury, es evidente. Otro tipo de problema relevante en este caso y que también ha sido estudiado en otros contextos es la metáfora y otros recursos creativos complejos con densidad funcional o semántica.

Para probar la transferibilidad de su análisis, Szymyslik (2018) realiza otro estudio paralelo centrado en la terminología médica (ficticia o no) de obras de ciencia ficción como The Visitor[3], de Bradbury, y ARIA: Left Luggage[4], de Nelder (enfermedades ficticias); A Deepness in the Sky[5], de Vinge, e Hybrids[6], de Sawyer (tratamientos médicos ficticios); y The Andromeda Strain[7], de Crichton, y I’m in Marsport Without Hilda[8], de Asimov (fármacos ficticios). En este corpus, el autor analiza el siguiente caso de complejidad en la traducibilidad: la traducción del neologismo inventado kalocin, denominación de un medicamento ficticio en una novela de Crichton. Al ser un elemento creativo, carece de equivalencia acuñada, por lo que recae en la responsabilidad del traductor ingeniar una alternativa en la lengua meta (español, en este caso):

[l]a estructura del término originario, Kalocin, hace probable que se trate de un neologismo creado mediante composición al unir la forma adaptada del sustantivo griego κάλλος, que significa «hermosura» (Pabón S. de Urbina, 2005: 322), a la terminación -cin. El equivalente propuesto en la novela meta estudiada es kalocina. Esta opción mantiene la grafía del primer componente del término ficticio (kalo-) y utiliza la terminación común de las sustancias farmacológicas y de los medicamentos en español, -ina.

Szymyslik 2018: 94; énfasis del autor

3.1.3. Ejemplo 3. Estudios de Interpretación basados en corpus (Bendazzoli, Russo et al. 2018; Orozco 2018)

En el campo de los estudios de interpretación basados en corpus, muchos de los fenómenos dignos de estudio tienen que ver con la noción de disfluency (Bendazzoli, Russo et al. 2018), que recoge aspectos como los segmentos truncados, los problemas de formulación o pronunciación, etc. Otras investigaciones en marcha analizan, por ejemplo, aspectos problemáticos de índole deontológica en corpus de negociación comercial.[9] Tanto las valoraciones de calidad (disfluency) como los aspectos deontológicos han de someterse a la interpretación del investigador y requieren una construcción conceptual específica. Los corpus textuales para la interpretación no son exactamente naturales, puesto que han de pasar primero por una fase de transcripción, que ya puede incluir un cierto contenido cualitativo descriptivo que anota el investigador manualmente. Las iniciativas de trabajo con corpus para interpretación suelen señalar la ausencia de software específico que permita el etiquetado (codificación) y anotación del corpus comparable bilingüe o multilingüe, por lo que, frecuentemente, son los propios investigadores los que acaban desarrollando sus propias herramientas para la investigación. Por ejemplo, Orozco (2018), en el marco del proyecto TiPP, explica cómo tuvieron que crear su propio sistema de análisis, con una metodología próxima a la teoría fundamentada en la forma en que se fueron construyendo las categorías:

The third feature of the project consists of the systems used for the transcription and annotation of the corpus. In order to obtain quantifiable data to be able to describe reality in a systematic rather than an anecdotic way, the research team chose to use one tool that not only facilitated the transcription and annotation of the corpus but also allowed the creation of ad hoc categories for the annotations. This all-inclusive tool is a software package called EXMARaLDA, a system for the computer-assisted creation and analysis of spoken language corpora. This tool enables the user to compile and manage a corpus, transcribe videos and, most importantly, it facilitates the type of ad hoc annotation created as well as its conversion into quantifiable data.

Orozco 2018: s.p.

Los trabajos con corpus en interpretación, donde se suman elementos contextuales o actitudinales (de tipo prosódico, gestual, etc.), indispensables para completar la información sobre el proceso o el producto traslativo (Poyatos 1987) y que deben registrarse, por tanto, en el corpus transcrito, son susceptibles de beneficiarse de la aproximación sistemática que propone la teoría fundamentada. La anotación del corpus pasa a ser necesariamente manual y humana para poder reflejar la complejidad y particularidad de los procesos y contextos (Shlesinger 1998), como ocurre al conceptualizar el atributo disfluency, aquí explicado.

3.1.4. Ejemplo 4. El problema de la traducción del efecto jurídico (Bestué y Orozco 2011)

El trabajo de Bestué y Orozco (2011) parte de un corpus de contratos electrónicos cuyo derecho aplicable es el de la cultura meta. Su aproximación metodológica se fundamenta en la necesidad de teorización a través de la práctica (Bestué y Orozco 2011: 181), que ya apuntara Ladmiral, y que, de nuevo, enlaza con los principios de la teoría fundamentada: «[l]a traductologie est “théorie d’une pratique” […] “une praxéologie” […] qui ne se soutient que de son rapport à la pratique qu’elle est censée accompagner et faciliter» (Ladmiral 1998: 138).

Las autoras realizan un estudio del corpus centrado en la adecuación al skopos de las técnicas traslativas empleadas (evaluación de calidad), que requería, en su caso, de un enfoque traslativo de corte instrumental (Nord 1988/1991), es decir, centrado en lograr el efecto jurídico en la cultura meta. Este tipo de estudios, centrados en la evaluación del error como desviación del skopos y que atiende a las técnicas o métodos empleados por los traductores, resulta también inobservable de manera automatizada. La particularidad metodológica de este ejemplo es la necesidad de incorporar, por un lado, la perspectiva del derecho comparado, que permita identificar el elemento problemático en un contexto jurídico determinado y según la asimetría existente entre el contexto origen y el meta; y, por otro, el enfoque traslativo adoptado para el cumplimiento del skopos (ya sea instrumental o documental), con miras a estudiar la traducibilidad de conceptos complejos (como son los términos jurídicos) y su aceptación en la cultura meta, basada en la consecución del efecto jurídico (Šarčević 1997: 229). Las autoras muestran gran cantidad de ejemplos centrados precisamente en cómo la complejidad de la traducción de estos textos (licencias de uso de software, por ejemplo) parte de la búsqueda del efecto jurídico, que se eleva como atributo clave a la hora de conceptualizar el constructo problema de traducción aquí (véase Bestué y Orozco 2011).

3.1.5. Ejemplo 5. Problemas en la transcreación (Morón 2017; Morón y Calvo 2018; Morón y Lobato 2019)

El modelo pedagógico de Morón (2017), basado en zonas de intervención (ZDI), que constituyen otro buen ejemplo de constructo denso, muy relacionado con la noción de problema desde una perspectiva didáctica, supone la asunción de los principios que guían las investigaciones basadas en la teoría fundamentada, con un contexto centrado en el skopos traslativo. El enfoque de análisis textual bottom-up sugiere presentar al estudiante una aproximación más objetiva al problema de traducción. De esta forma, todo elemento o característica del texto a nivel macrotextual, microtextual y extratextual, según el modelo de Nord (1988/1991), que requieren de una intervención del traductor, se tratarán como ZDI en la formación del traductor, y como un procedimiento de análisis del TO centrado en la objetivación del problema. Recientemente, se ha iniciado un trabajo con corpus de textos de transcreación, en los que la definición del problema resulta reveladora. Las características de estos textos (normalmente con un fuerte componente creativo), su multimodalidad y la propia dinámica interdisciplinar de ejecución de esta práctica (más cercana al marketing o la publicidad internacional) permiten identificar nuevos atributos para el concepto problema. Por ejemplo, ciertos elementos del TO sirven para construir conceptualmente en el público meta una imagen de marca o para reproducir el ideario y estilo de comunicación del cliente (muy en línea con el atributo de evocación de Szymyslik 2019, si bien sobre la base de unos criterios previamente definidos en las instrucciones del cliente o inferidos y de corte fundamentalmente comercial); asimismo, hay elementos del TO, normalmente marcados culturalmente, que requieren una adaptación, conversión o recreación en el TM para dar respuesta a objetivos comerciales concretos, por poner solo algunos ejemplos (Morón 2017; Morón y Lobato 2019).

4. Constructos complejos y herramientas para investigar en ETI

Los estudios de corte cuantitativo han demostrado su enorme potencial para analizar los textos y observar determinados fenómenos en contextos naturales (orales o escritos), en su aplicación a la investigación y a la formación de traductores. Estos enfoques han permitido el desarrollo de trabajos que han permitido un conocimiento más profundo de los textos en general, así como de su naturaleza como textos traducibles o traducidos (Fantinuoli 2016). No obstante, como apunta Glynn (2014), cabe recordar que el análisis estadístico, propio de estudios de corte cuantitativo, es solo una de las posibles maneras de representar los datos:

[t]he ‘numbers’ presented in corpus-driven research are not the analysis; they are a quantitative summary of the analysis, which must, in turn, be interpreted. Corpus-driven linguists, for the most part, deal with language in a relatively close and fine-grained way; they just deal with large quantities of it.

Glynn 2014: 312

Frente a esta perspectiva cuantitativa, los estudios cualitativos, según Colás (1998: 177), ayudan a proporcionar datos y hechos, identificar problemas, fenómenos relevantes, dar pautas para la configuración de teorías, plantear hipótesis, identificar áreas de estudio que no pueden ser tratadas experimentalmente, así como realizar comparaciones y evaluaciones, o planificar futuros cambios y toma de decisiones.

Las herramientas que actualmente nos permiten procesar digitalmente contenidos textuales con fines de investigación presentan funcionalidades de utilidad indudable. Sin embargo, desde la perspectiva cualitativa que requiere el enfoque basado en la teoría fundamentada, falta por desarrollar una tecnología integradora para investigar en el ámbito de los ETI.

En ciencias sociales, la investigación cualitativa, como la basada en la teoría fundamentada o el análisis de contenido (López 2002; Hernández, Fernández et al. 1991/2010), requiere que el investigador anote y categorice el corpus (codificación o coding). Dada la complejidad e interpretabilidad de los fenómenos observables, quien investiga desempeña un papel ineludible. Los procesos que antes se realizaban manualmente, con anotaciones sobre los textos que no permitían procesamientos sofisticados posteriores, se vienen realizando ahora en ciencias sociales con potentes herramientas de anotado, como el software específico para fines etnográficos y sociológicos, que cubre algunas, pero no todas las necesidades de investigación de este tipo de trabajos. Este software de categorización o anotación se diseñó originalmente para trabajar, por ejemplo, con entrevistas y sus transcripciones, pero es aplicable a textos legibles digitalmente. Se crea, por tanto, una relación de interdependencia entre el investigador y la herramienta (instrumented action, Alonso y Calvo 2015), en donde el procesamiento es menos automático que en otros tipos de estudio de lingüística de corpus cuantitativa.

Entre las herramientas etnográficas que permiten este tipo de aproximación, frecuentemente utilizadas para manejar información oral transcrita (entrevistas, discursos, etc.), podrían señalarse innumerables ejemplos, como Atlas.ti, Vision Studio, ThèmeCoder, Mental Maps Editor, NVivo y Transana, Edet, etc. (Kuznik 2010). NVivo es quizás una de las herramientas más asentadas en este contexto sociológico. Algunos investigadores en el ámbito de los ETI ya han empleado esta herramienta para analizar corpus: Zimányi (2013); González, Alonso et al. (2014); Donovan (2012); o Jensen (2013); entre otros. Si bien los investigadores que emplean estas herramientas sociológicas para el etiquetado de corpus en contextos de traducción no ubican sus estudios de forma específica en las coordenadas de la teoría fundamentada, en realidad, el tipo de trabajo que realizan se asemeja bastante a sus métodos y principios y, probablemente, son contextos que podrían haberse beneficiado de estos principios de sistematización para la investigación cualitativa. Así se desprende, por ejemplo, de la tesis de Donovan (2012: 79), con una descripción del proceso de codificación que comparte paralelismos con las fases revisables de codificación propias de la teoría fundamentada:

I found the categorisation process itself dynamic, with every encoding challenging each category choice I had made, inevitably leading to many changes that rippled throughout the structure and reconfigured it. The process of sub-categorisation, and hence the establishment of perceived hierarchies of features, interrogated these categories again, resulting in further alterations.

Las posibilidades de etiquetado y visualización de resultados son inmensas en herramientas como NVivo, sin embargo, no se logra salvar uno de los rasgos más evidentes y definitorios de la práctica traslativa: la transferencia lingüística. Permiten un análisis únicamente monolingüe, de ahí su limitada aplicabilidad a los procesos traslativos que nos ocupan. Herramientas más genéricas se emplean con frecuencia para codificar (Excel, por ejemplo, De la Cova 2017) o incluso Access, para salvar esta limitación.

Por otro lado, la lingüística de corpus ha demostrado sobradamente su potencial para investigar todo lo relacionado con lo textualmente manifiesto en los corpus. No obstante, algunos estudios reflejan sus limitaciones para su aplicación profesional e investigadora en los ETI. Fantinuoli (2016), por ejemplo, subraya las limitaciones que las herramientas de corpus existentes presentan para reflejar las necesidades reales de la traducción profesional. Por una parte, destaca el hecho de que las herramientas disponibles hasta la fecha fueron inicialmente diseñadas para su aplicación pedagógica (caso de MicroConcord y MonoConcPro) o bien se diseñaron específicamente para ámbitos como la lingüística, lingüística aplicada, computacional o la lexicografía (WordSmith Tools, AntConc o TextSTAT). Fantinuoli defiende que de ahí deriva su inefectividad a la hora de responder a las necesidades de los traductores (Bernardini 2006; Gavioli y Aston 2001; Anthony 2013 en Fantinuoli 2016: 65), por lo que plantean también limitaciones para su aplicación en los ETI. Es cierto que hay disponibles herramientas más ágiles y rápidas, que permiten procesar formatos de archivo complejos, trabajar con corpus sin procesamiento previo o crearlos directamente desde la web (Sketch Engine, TranslatorBank), pero siguen planteando limitaciones en los procesos profesionales (Bernardini 2006; Fantinuoli 2016). También en los procesos investigadores, dado que no están diseñadas, desde el punto de vista del análisis, para arrojar una visualización de resultados que tenga suficiente aprovechamiento investigador.

Las herramientas disponibles no resultan efectivas para incorporar un análisis contrastivo automatizado en el tratamiento, análisis e interpretación del corpus que pueda superar el análisis del TO o el TM y centrarse en la toma de decisiones en la resolución de problemas de traducción. Bien es cierto que el trabajo con corpus monolingües resulta de gran interés para entender los procesos traslativos (véase el repaso que ofrece Fantinuoli 2006: 66-68) o, como señala Shlesinger (1998), para validar teorías de fenómenos concretos. Sin embargo, la traducción y la interpretación requieren de transferencia lingüística como elemento de base (pares de textos traducidos/interpretados), y es aquí precisamente donde las herramientas disponibles revelan una utilidad limitada.

Los corpus comparables (TO-TM), conocidos en los ETI como corpus bilingües paralelos o «bitextos» (Harris 1988: 8), ya sean diseñados ad hoc por los traductores (Castillo 2009) o estén disponibles en línea (Borja 2007; Alonso 2013) suelen ser útiles a los traductores (y así se refleja en infinidad de trabajos en las distintas modalidades traslativas y de interpretación, por ejemplo, en Borja 2007, en traducción jurídica; o en Jiménez-Crespo 2009, en localización, entre otros) y han constituido ya material para diversas investigaciones del campo. Sin embargo, este análisis no suele poder hacerse de manera integrada en las herramientas disponibles, sino que ha de hacerse sobre una base monolingüe en cada uno de los corpus (TO-TM), para luego incorporar (manualmente, y con la intervención del observador) el análisis contrastivo; de ahí que Castillo (2009) subraye que la complejidad de la alineación para fines de investigación es manifiesta. Por otra parte, estas herramientas no permiten la intervención del investigador: ni es posible crear sobre ellas un corpus específico con fines de investigación, ni es posible anotar o codificar el contenido. Sería necesaria la extracción manual en una primera fase de estas bases de datos bilingües para luego proceder a su tratamiento en otras herramientas, como pueden ser las memorias de traducción, desde la perspectiva de la contrastividad; o las herramientas sociológicas de etiquetado, si se quieren identificar y categorizar los diferentes fenómenos o constructos complejos que se encuentren bajo estudio.

Un ejemplo de herramienta que permite la alineación, pero no está diseñada con fines de investigación, puede ser Linguee, disponible en línea (y que permite acceder a textos paralelos en la red). Así ocurre también con el corpus legislativo Eurlex de textos traducidos comparables, donde el mismo texto puede visualizarse en versión multilingüe en todas las lenguas oficiales de la Unión Europea (UE). Otro buen ejemplo en este sentido puede ser el corpus multilingüe de interpretación del Parlamento Europeo (EPIC), ya empleado en diversas investigaciones (Monti, Bendazzoli et al. 2006; Bendazzoli 2010). A la hora de analizarlos desde el punto de vista de la investigación, los «bitextos» (recuperados gracias a Linguee, Eurlex, EPIC, etc.) muestran la decisión puntual de un traductor o intérprete (automático o humano, por lo que el recurso habrá de ser reevaluado por el traductor en la reutilización de los recursos mostrados), ajena a una valoración de calidad significativa a posteriori (Teubert 1996; Jiménez-Crespo 2009: 3). En el caso de Linguee, estos corpus, que podrían considerarse «naturales», no permiten valorar en muchos casos condicionantes funcionales como el contexto cultural de uso, la variedad lingüística, la audiencia, etc., salvo por la información que se desprende de la URL de origen. En el caso de Eurlex o EPIC, las decisiones traslativas sí vienen más marcadas por el skopos comunicativo que las motiva, que no es otro que la traducción o interpretación institucional en el marco de la UE. Pero precisamente este marco de control hace que sean recursos ya dados que el investigador debe usar tal cual. Las posibilidades de investigación, no obstante, son inmensas dentro de su propio contexto institucional.

El uso de memorias de traducción, herramientas eminentemente profesionales, podría generar corpus bilingües con potencial para reflejar la direccionalidad y contrastividad de la que carecen las herramientas de corpus cuantitativo y las herramientas de codificación cualitativa sociológicas. Gracias a que reflejan la contrastividad por segmentos, pueden ayudar al traductor a solventar dudas léxicas y terminológicas claves, al recuperar decisiones ya tomadas respecto a ese elemento e incorporadas en la memoria. El principal problema aquí es que las memorias están diseñadas con fines profesionales y presentan poca o ninguna funcionalidad específica para la investigación y visualización de resultados de investigación, más allá de la propia alineación y la extracción de concordancias. Kenny (2006: 51) aboga por la triangulación como único mecanismo para salvar las complejas variables en juego en la investigación del proceso y el producto traslativo.

En algunos casos, los investigadores que han de etiquetar corpus de traducción o interpretación, ante la falta de herramientas específicas, optan por desarrollar sus propios recursos, como el ya mencionado EXMARaLDA, aplicado al proyecto TiPP de la Universidad Autónoma de Barcelona (Orozco 2018), o ELAN (EUDICO Linguistic Anotator) (Bendazzoli y Monacelli 2016).

Se aprecia que, para la aplicación de una metodología centrada en la teoría fundamentada, o incluso para una aplicación más sistemática de otras metodologías cualitativas centradas en contenido y corpus, las herramientas disponibles no resuelven los procesos de forma integral. En concreto, sería clave poder contar con herramientas que permitan trabajar con textos alineados, desarrollar categorizaciones basadas en atributos que permitan codificar de forma adecuada y que, finalmente, ofrezcan una visualización de resultados avanzada.

5. Conclusiones preliminares y prospección

Mientras que la disciplina de los ETI ha avanzado de manera sorprendente en el campo de los estudios cuantitativos de corpus, algunos fenómenos traductológicos complejos (densos, según la terminología de teoría fundamentada) requieren un tratamiento cualitativo que aún necesita de un mayor desarrollo metodológico sistemático. Una de las principales dificultades es que buena parte de los fenómenos textuales densos que requieren una mayor profundización en los ETI no son detectables o manifiestos con las herramientas cuantitativas más avanzadas, y requieren un tratamiento cualitativo sistemático que, hasta ahora, es probablemente una asignatura pendiente en la disciplina.

La naturaleza dispar de los ETI revela las deficiencias de las herramientas disponibles, en algunos casos diseñadas por y para otras disciplinas como la lingüística o las ciencias sociales. Según Fantinuoli (2006: 64-65), resulta prioritario crear software específico que refleje las necesidades reales de los traductores y dé cuenta de la naturaleza compleja, contrastiva y marcada por el contexto de la propia traducción, tanto en su aplicación profesional como en lo que se refiere a investigación.

De esta manera, podemos establecer determinadas variables del proceso traslativo que merman la capacidad de aplicación de herramientas de corpus o de métodos de trabajo con corpus meramente lingüísticos, al no abordar estos la propia naturaleza de la traducción y su estudio: la contrastividad requerida y la necesidad de informar sobre aspectos contextuales, funcionales, extratextuales, etc.

Por un lado, los ETI cuentan con metodologías de investigación consolidadas, como la lingüística de corpus cualitativa (con etiquetado o tagging, similar a la codificación), con técnicas como el análisis de contenido desde las ciencias sociales, o con el análisis del discurso o el análisis crítico del discurso, que permiten una aproximación a dimensiones de estudio en traducción más densas conceptualmente. No obstante, la sistematización que ofrece la teoría fundamentada sería de enorme utilidad en nuestro campo, un enfoque que aún no se ha desarrollado en los ETI.

Por otro lado, se observa cómo las herramientas disponibles hoy sí permiten que distintas fases de la investigación en traducción queden parcialmente cubiertas de forma satisfactoria, bien por las herramientas de corpus cuantitativo, bien por las herramientas de anotación cualitativa etnográfica (monolingüe), bien por las herramientas de alineación y memoria de textos traducidos, etc. Una combinación triangulada de estas herramientas permitiría realizar un estudio basado en constructos traductológicos densos; sin embargo, no se cuenta aún con herramientas integradas que cubran la totalidad del proceso. Tal y como queda reflejado en este estudio, la adopción de la metodología de la teoría fundamentada requiere de herramientas bilingües o multilingües que permitan codificar con categorías, incluyan funciones de visualización de resultados adecuadas para la investigación (gracias a la integración de memorias de traducción, herramientas propias de la lingüística de corpus, o software de codificación etnográfico, entre otras) y esto, para corpus tanto monolingües (TO o TM) como alineados (TO y TM).

Finalmente, es crucial en este tipo de estudios sistematizar y asentar la operativización de constructos complejos en lugar de enunciar las investigaciones descriptivas de manera «intuitiva» o meramente abstracta. Es preciso que los conceptos sean transferibles a otros contextos y que las metodologías y resultados sean replicables y válidos. Los ETI consiguen describir o aplicar estos conceptos interpretativamente, si bien se revelan incapaces de consolidar, aún, un sistema de operacionalización científica claro, unívoco, extrapolable, analizable y medible de los constructos presentados, una fase fundamental a la hora de afrontar metodologías de trabajo de forma sistemática.

Esta aproximación sólida y verificable permitiría revisar en la práctica conceptos debatidos y abiertos en la disciplina, como los universales de la traducción y nociones como el problema o el error de traducción. Para ello la clave es identificar factores objetivos y observables, independientes del contexto o el traductor, para una operativización adecuada. Un ejemplo podría ser el atributo de traducibilidad compleja, relacionado teóricamente con la cuestión clásica de la intraducibilidad en los estudios de Traducción (ausencia de equivalencia clara, más de una equivalencia), aquí expuesto (De la Cova 2017; Szymyslik 2019), para entender el constructo problema de traducción. Este atributo permite explicar tanto la fase de pretraducción (comprensión de TO), transferencia (tratamiento de dicha traducibilidad o resolución del problema) y calidad (error), siempre desde unas coordenadas funcionales.

Esta visión integrada de los principios de la teoría fundamentada con respecto a las metodologías con corpus permite no solo la descripción de los fenómenos, sino una mejor teorización o reconceptualización de los conceptos densos propios de los ETI para el avance y definición de la propia disciplina (Kenny 2006: 54). Este enfoque y la incorporación de herramientas que permitan estudiar la profundidad, complejidad y densidad de los fenómenos traslativos resultarían especialmente beneficiosas tanto para la investigación como para la formación y aplicación de estos resultados al ejercicio profesional de la traducción, por sus aportaciones para la sistematización teórica de determinados conceptos densos. Se favorece así el enfoque propuesto por Baker (1993: 248) que permite avanzar «from methodologizing to proper theorising, and from individual and fragmented pieces of research to powerful generalisations».