Otras publicaciones:

9789877230048-frontcover

Book cover

Otras publicaciones:

9789871867967-frontcover

9789871867653_frontcover

2 Marco teórico y metodológico

2.1 Fundamentos teóricos

Esta investigación está basada en la aproximación de la Semiótica Social al Análisis Multimodal del Discurso (MDA en sus siglas en inglés). El MDA es un acercamiento al discurso que hace foco en cómo el significado es construido a través del uso de múltiples modos de comunicación y no solo de las lenguas en el sentido tradicional (Jones, 2012; Kaltenbacher, 2007; O’Halloran, en prensa). El objeto de estudio del MDA es el proceso de significación a partir de considerar una unidad semiótica en la combinación misma de sistemas o modos. En este marco, “Multimodalidad” designa la diversidad de actividades de creación de significado.

Baldry y Thibault (2010) explican que el MDA surgió en la década de 1990 como una forma de estudiar textos multimodales en el marco de acciones comunicativas que involucran a participantes en un determinado contexto. Kaltenbacher (2007), por su parte, indica que el MDA es una ramificación del Análisis del Discurso y de la teoría Sistemático-funcional (SF) de Halliday (1998).

La teoría de Halliday (1998) sostiene que la gramática de una lengua principalmente es un recurso para crear significados y, en este sentido, que no se trata únicamente de un código. Así la semiótica social de Halliday considera que las personas utilizan recursos semióticos para producir e interpretar artefactos comunicativos en el contexto dado por situaciones y prácticas sociales específicas (O’Halloran, en prensa).

Para exponer la fundamentación teórica del MDA, Baldry y Thibault (2010) retoman la noción de función de Malinowski, para quien una emisión tiene significado en relación a un contexto lingüístico y cultural. De este modo, para Malinowski (como es citado en Baldry y Thibault, 2010) el lenguaje es una actividad entre otras a través de las cuales el humano satisface sus necesidades. En la misma línea funcionalista, Halliday (1978) concibe al texto como uno de los elementos que participan del evento comunicativo y de la producción de significación, y cuyas funciones son definidas por su uso en contextos particulares. Sobre esta noción de contexto Halliday (1998) señala:

El concepto básico aquí es el de “contexto de situación”, sugerido originalmente por Malinowski (1923) y desarrollado posteriormente por Firth en su trabajo de 1950 sobre “La personalidad y el lenguaje en la sociedad” (…) Eso implica que el lenguaje solo surge a la existencia cuando funciona en algún medio. No experimentamos el lenguaje en el aislamiento –si lo hiciéramos no lo reconoceríamos como lenguaje-, sino siempre en relación con algún escenario, con algún antecedente de personas, actos, y sucesos de los que derivan su significado las cosas que se dicen. Es lo que se denomina ‘situación’, (…) por lo cual decimos que el lenguaje funciona en ‘contextos de situación’ (…). (p.42)

Halliday (1998) también destaca que los recursos semióticos para crear significados son variados, pero con las contribuciones del MDA, la teoría de Halliday ha sido expandida de forma tal que ha logrado incorporar recursos como imágenes visuales, música, sonido, espacio, entre otros. Estos diferentes modos de comunicación que aparecen, por ejemplo, con el uso de las nuevas tecnologías, conforman una semiosfera que usamos para funcionar en determinados contextos sociales y culturales (Kaltenbacher, 2007).

Los distintos modos que conforman la semiosfera de un mensaje pueden ser definidos como los canales a través de los cuales este puede ser transmitido, y se presentan en una organización jerárquica. Por ejemplo, un emoticono, en el contexto de una conversación por chat, puede ser la parte más importante del mensaje, pero también puede acompañar, combinarse o formar parte de un mensaje escrito, que así podría asumir el significado base del mensaje.

Con el desarrollo exponencial en las últimas tres décadas de las nuevas tecnologías de la información y la comunicación, las nuevas formas de transmisión de los mensajes sufren un desarrollo vertiginoso. El MDA justamente se propone comprender, describir y explicar estas modalidades actuales dando cuenta de su complejidad intrínseca.

En el marco teórico del MDA se han estudiado trascripciones de vídeos y sitios de Internet. Además, se han incluido aproximaciones al discurso multimodal basadas en estudios de corpus (O’Halloran, en prensa). Sobre el alcance de los estudios del MDA, O’Halloran (en prensa) sostiene:

 (…) video texts and interactive digital sites remain a major challenge for SF-MDA discourse analysts (e.g. Djonov, 2006; Jones, 2007), largely due to the complexity of SF-MDA analysis, the dynamic nature of digital texts and the sheer amount of data which is generated. (p.4)[1]

La teoría del MDA resulta apropiada para realizar un análisis consistente del corpus que proponemos, principalmente por dos razones. La primera, porque en esta investigación nos proponemos analizar un grupo de comentarios escritos, que aparecen combinados junto a emoticonos, fotos, vídeos y otros signos visuales y sonoros. Es decir, mensajes de alta complejidad. La segunda, porque una de las metas de este trabajo es comprender la función de las reglas de ortografía en un discurso como el que utilizan los usuarios de Facebook y, en este sentido, la teoría del MDA ofrece un acercamiento desde el punto de vista social que puede ser integrado a un análisis gramatical, puntualmente ortográfico, que nos brinde herramientas para describir las desviaciones de los usuarios respecto de la norma. Esta posibilidad de estudio, por cierto, está incluida en el concepto ya mencionado de Halliday (1998), a partir del cual la gramática de una lengua es un recurso para crear significados.

Por último, siguiendo a Pérez Sabater (2012): “(…) the development of social networking and its increasing importance in the academic world creates the need for scholarly research on the issue” (p.81)[2]. En esta dirección, esperamos que la presente investigación sea una contribución a la teoría del MDA a partir del análisis de un aspecto gramatical puntual como la ortografía[3], sobre un corpus compuesto por discursos producidos a través de ordenadores.

2.2 Hipótesis de estudio: El análisis de errores de la escritura en Facebook

Hemos realizado una comparación con la teoría de Corder (1967)[4] sobre el análisis de errores de los aprendices de segundas lenguas. Como su teoría está basada en un objeto de estudio distinto al nuestro, nos ocuparemos aquí de señalar las diferencias y las analogías pertinentes, así como de realizar las adaptaciones indispensables para extrapolar de forma consistente su modelo a nuestro objeto de estudio. Las limitaciones y beneficios de esta comparación podrán verificarse más adelante, en el análisis del corpus propiamente dicho.

2.2.1 Delimitación terminológica: sistema de escritura anómala y sistema de escritura estándar

Una primera observación de nuestro corpus de comentarios en Facebook nos ha mostrado que la desviación respecto de la norma ortográfica del español parece ser el común denominador en la gran mayoría de las publicaciones que se sirven de la escritura en esta lengua.

Por este motivo, denominaremos “Sistema de Escritura Anómala” (en adelante SEA), al modo de escritura general de una red social como Facebook. Esto no implica que todas las emisiones que se expresan a través de esta red social transgredan necesariamente las reglas de ortografía, pero sí quiere dar cuenta de una forma de escritura que difiere sustancialmente de aquella otra que se realiza en ámbitos comunicativos no virtuales o más formales. Como ya hemos dicho, el tipo de discursos que analizaremos se enmarcan dentro del estudio de la comunicación a través de ordenadores (“Computer-Mediated Communication [CMC]”, [Pérez-Sabater 2012, p.81]). Hipotetizamos que el SEA, por lo tanto, es un sub-código de escritura que forma parte de este tipo de comunicación y que es, en consecuencia, el código más habitual en Facebook.

Siguiendo esta idea, llamaremos “Sistema de Escritura Estándar” (en adelante SEE), al sistema de codificación general del español, cuyas reglas están consignadas en la Ortografía de la lengua española de la RAE y ASALE (2010).

2.2.2 El análisis de errores y sus diferencias con el análisis contrastivo

De acuerdo con el diccionario del Centro Virtual Cervantes (2017): “el análisis de errores es una corriente de investigación que se desarrolló durante los años 70 del siglo XX como una rama de la lingüística aplicada”. Esta rama se propuso analizar los errores cometidos por estudiantes de segundas lenguas para descubrir sus causas y las estrategias de los alumnos en el proceso de aprendizaje. El fundador de esta corriente fue Corder, que se basó en investigaciones anteriores realizadas por Chomsky sobre la adquisición de la lengua materna.

El análisis de errores se opuso al análisis contrastivo, que se fundamentaba en las teorías conductistas sobre la adquisición de las lenguas. El análisis contrastivo comparaba la lengua materna o primera lengua (en adelante “L1”) con la lengua meta del aprendiz (en adelante “L2”) y explicaba sus errores por las interferencias que se daban entre una y otra en el proceso de aprendizaje. En otros términos, para la corriente contrastiva los errores se explicaban a partir de la persistencia del hábito de L1 que interfería en el aprendizaje de L2 (Corder, p.1). La noción de “interferencia”, entonces, se refiere a los problemas, en términos de aprendizaje, que producen al conservar los hábitos de L1 a la hora de aprender una L2.

En la misma dirección, el behaviorismo consideraba que la metodología de comparación entre L1 y L2 prevendría de los errores cometidos por los aprendices (Corder, p.5). En esta lógica, si el método de enseñanza que imparten los profesores de segundas lenguas fuese perfecto, los errores de los aprendices no ocurrirían.

A diferencia de la perspectiva conductista, la posición cognitivista de Corder plantea que el error es una evidencia de en qué punto del proceso de aprendizaje de L2 se encuentra el alumno. Uno de los logros del análisis de errores fue el descubrimiento de que las equivocaciones de los aprendices muchas veces se presentaban con independencia de cuál fuera la L1 de la cual partía el aprendiz. Además, estos errores aparecían también en etapas comunes, revelando una “secuencia natural de aprendizaje” (Corder, 1967, p.2). En términos del autor:

The key concept in both cases is that the learner is using a definite system of language at every point in his development, although it is not the adult system in the one case, nor that of the second language in the other. The learner’s errors are evidence of this system and are themselves systematic. (p.10)[5]

Este aporte de Corder significó una evidencia a favor de la teoría de Chomsky (1989) sobre la naturaleza innata y creativa de la adquisición de las lenguas. En efecto, para Chomsky (1989) toda lengua surge de un código universal que el niño va desarrollando hasta adquirir una lengua particular, en un proceso creativo.

2.2.3 Utilidad del análisis de errores para este estudio

Corder (p.1) sostiene que la lengua de los aprendices es un sistema simplificado que denomina “interlengua”. Para este autor, la interlengua es un tipo de dialecto idiosincrático, es decir, un código que constituye la competencia de un hablante individual y que, sin ser idéntico a L2, comparte un grupo de reglas gramaticales con éste (pp.14-16). Al igual que los otros dialectos idiosincráticos definidos por Corder (pp. 16-17), tales como la lengua de los afásicos, la poesía y el lenguaje de los niños, la interlengua posee los siguientes rasgos: 1) es regular; 2) es sistemática; 3) tiene significado; y 4) posee una gramática con una serie de reglas que pueden considerarse sub-reglas con respecto de las de L2. Corder subraya que el análisis del error se puede aplicar a todos los dialectos idiosincráticos.

Encontramos puntos en común en la relación que establece Corder entre L1 y L2 en el proceso de adquisición, con la relación entre el SEA y el SEE en el marco de las interacciones en Facebook.

Por ejemplo, el SEA también comparte una serie de reglas gramaticales con el SEE y, en efecto, como especificamos más arriba, se trata de un subsistema dentro del sistema de la escritura normalizada del español, que lo engloba. En efecto, aunque los mensajes de Facebook no sean realizaciones ideales respecto de la norma ortográfica española, no dejan de ser actualizaciones de esta lengua.

El análisis de los datos recogidos nos va a permitir confirmar si el SEA es un código idiosincrático o individual de cada usuario, como el que postula Corder para la interlengua de los aprendices de L2, o se trata más bien de un código general o social en sentido estricto. En efecto, si en el análisis de datos encontramos que los errores cometidos en Facebook son errores comunes, generales, sistemáticos, podría considerarse al SEA como una clase de variante de la escritura estándar, utilizada específicamente en la comunicación a través de ordenadores (CMC).

Por este motivo, proponemos la hipótesis de que el SEA, un sub-código de la escritura normada, es el sistema que se manifiesta en los mensajes en Facebook analizados.

2.2.4 Diferencias del modelo de Corder con respecto al presente estudio

La comparación entre el modelo de Corder y el que aquí proponemos merece una serie de matizaciones. Por ejemplo, entre el tipo de dialecto idiosincrático que menciona Corder se incluye a la poesía, porque suele desviarse deliberadamente de la norma gramatical de L2. En el caso de la escritura en Facebook, a diferencia del proceso de adquisición de L2, no podemos estar seguros de que el SEE no haya sido adquirido completamente por el hablante a la hora de redactar un mensaje en la red social y, de esta forma, no elija al SEA como una estrategia pragmática voluntaria que le reporta algún tipo de beneficio comunicativo. En otros términos, no sabemos si el usuario conoce las reglas de ortografía del español y prefiere no utilizarlas correctamente porque esto le aporta algún tipo de rédito en términos pragmáticos, o no conoce el sistema ortográfico español de manera acabada y por este motivo comete errores.

En cualquiera de los dos casos, en las interacciones en Facebook encontramos que las emisiones de los usuarios muchas veces son adecuadas desde el punto de vista pragmático, aunque incorrectas desde el punto de vista gramatical.

La diferencias con los otros tipos de dialectos idiosincráticos mencionados, entonces, consisten en que en el caso del SEA las desviaciones pueden ser tanto voluntarias o motivadas, como involuntarias o inmotivadas.

Otra diferencia importante con el modelo de Corder es que los usuarios de Facebook no son aprendices de una L2, es decir que no utilizan esta red para aprender una L2, como sí ocurre en el proceso de adquisición de L2. La diferencia con el modelo de Corder, que se explica a partir de un objeto de estudio distinto al nuestro, es que en el caso de Facebook el SEA no representa el punto intermedio en un proceso de aprendizaje hacia la adquisición de una L2.

Del mismo modo, no podemos decir que las actualizaciones del SEA representan etapas de un aprendizaje porque, en este caso, el usuario no está en un proceso de adquisición (partimos de que muchos usuarios ya conocen el SEE, pero prefieren el SEA por ventajas pragmáticas). Pero si en el análisis de los datos encontramos cierta sistematicidad en las incorrecciones que cometen distintos usuarios, debería desprenderse de una serie de reglas subyacentes que han de configurar el SEA, un subsistema de escritura particular dentro del marco general de escritura en español.

Queremos proponer, no obstante, que la “lengua” de la cual parten los usuarios de Facebook es, salvando las distancias obvias, la oralidad. Para esto nos basamos en que la relación de imbricación entre escritura y oralidad en los medios electrónicos ha sido señalada en diversos estudios, tal como indica Pérez-Sabater (2012):

Regarding the language used in emails, although written, its style has been characterised as written speech (Maynor 1994), or “as an emerging language centaur– part speech, part writing” (Baron 2000: 248). The oral and highly informal traits of email have been pointed out by Yates/Orlikowski (1992) in contrast with the language used in traditional memos (see Cho 2010 for a recent reformulation of this perspective). In relation to these oral traits, the dialogic nature of emails has been underlined. This characteristic of email messages could be extended to other CMC genres. (p.82) [6]

La oralidad, entonces, podría equipararse al L1 en la teoría de Corder, y la L2 estaría representada por el SEE en nuestro modelo de la escritura en Facebook. El SEA, entonces, ocuparía aquí el lugar de la interlengua de Corder. En el siguiente esquema ofrecemos nuestra propuesta de adaptación de su modelo a nuestro objeto:

Como vemos el SEA y el SEE son sistemas interdependientes pero, a diferencia del proceso de aprendizaje de una L2, no están vinculados por un proceso de aprendizaje en el cual el SEA, después de finalizado el proceso, tendería a desaparecer (cuando el aprendiz logra convertirse en un hablante nativo de L2). En el caso de Facebook, el SEA consiste en un sub-código diferenciado de la escritura estándar, con reglas propias aunque dependientes del SEE.

Cabría la objeción de que no es necesario afirmar que el tipo de escritura en Facebook sea un dialecto idiosincrático y que en cambio sería más adecuado considerarlo como un género discursivo entre otros, como por ejemplo, el de las cartas. Considerar al discurso de las redes sociales como géneros es lo que hacen Pérez-Sabater (2012) y Niesten y Sussex (2006). Estos últimos sostienen que: “Genres regulate and mediate the ways we interact with each other in society, and websites and webs pages are no exception” (p.113)[7].

Pero en el caso de Facebook es indudable que se trata de un medio de comunicación masivo, que forma parte del hábito comunicativo de millones de personas, y que además incluye a muchas formas discursivas en sí mismo; estos hechos nos conducen a considerarlo como algo más abarcativo que un género discursivo. Sobre este aspecto, Seidman (2013, p.402) señala:

The Internet has had a major impact on social life (see Bargh & McKenna, 2004 for review). In 2010, 61% of American adults used social networking websites (SNS) (Zickuhr, 2010). Facebook is the most popular SNS (Jain, 2010) with over one billion users (Facebook, 2012). [8]

También podría objetarse la aparente contradicción que supone haber elegido, por un lado, los fundamentos teóricos del MDA que corresponden a la lingüística de raigambre funcionalista que fundó Halliday (1976, 1998) y, al mismo tiempo, haber basado nuestra hipótesis de estudio en la utilización y extrapolación del modelo del Análisis de Errores que tiene sus raíces en la escuela formalista fundada por Chomsky (1986). Pero esta contradicción es solo aparente por las siguientes tres razones que pasaremos a exponer. En primer lugar, hemos basado nuestra hipótesis en una adaptación del modelo del Análisis de Error dado que esta escuela ha profundizado en la materia del análisis de errores como tal vez ninguna otra, y teniendo en cuenta los intereses del presente estudio, este camino ya recorrido por otros investigadores podía servirnos de provecho. En segundo lugar, en este apartado creemos haber expuesto detalladamente en qué medida la teoría de Corder resulta productiva para nuestro propio modelo, qué aspectos de esta teoría tomamos y cuáles descartamos por tratarse de objetos de estudios distintos. En tercer lugar, la integración de ambas teorías no es incoherente con nuestro objeto de estudio en tanto la hipótesis propuesta no está implicada con el problema de la adquisición de la lengua, sino que se enfoca en el uso de la norma escrita en un medio digital. En términos del propio Halliday (1998, p. 22), nos ocupamos aquí de la perspectiva “interorgánica” del lenguaje más que de la “intraorgánica”. Por lo tanto, la discusión y las diferencias entre la perspectiva funcionalista (Halliday, 1998) frente a la formalista (Chomsky, 1989) sobre la naturaleza de la adquisición de las lenguas excede a los intereses e implicaciones de nuestro trabajo, que se centra más bien en el uso de la lengua escrita.

En conclusión, la teoría del MDA es la que utilizaremos para realizar el análisis cualitativo e interpretativo del corpus, y la teoría del análisis de errores es la que utilizaremos para extrapolar y adaptar de ella nuestra hipótesis, pero solo sirviéndonos de los aspectos metodológicos sobre el Análisis de Errores en sí, y no de sus fundamentos teóricos sobre la adquisición de la lengua.

2.3 Antecedentes

Una investigación con algunos rasgos similares a la de este trabajo la encontramos en Cabrera, Gómez y Jara (2014). En su artículo, las autoras realizan un análisis de errores sobre un corpus anotado de redacciones realizadas a través de ordenadores por estudiantes de español como segunda lengua. Su análisis incluye el nivel ortográfico, entre otros. Además, las investigadoras se sirven de herramientas informáticas, puntualmente un software especializado para el análisis de datos lingüísticos (Nvivo), combinando el método digital y el manual.

Cabrera, Gómez y Jara (2014) clasifican los errores lingüísticos en tres tipos: “de adición, de omisión y de falsa selección” (p.394). Los tres tipos se definen respectivamente como: agregar un elemento no necesario, omitir un elemento y hacer un uso poco pertinente de un elemento gramatical. Respecto del análisis puntual sobre los errores ortográficos, este trabajo los divide en tres clases siguiendo los criterios de elaboración de anotaciones para etiquetajes de corpus propuestos por Granger (citado en Cabrera, Gómez y Jara, 2014, p.396): ortografía “acentual, literal y dierética”. Teniendo en cuenta estos parámetros clasificatorios, las autoras encuentran que la ortografía acentual es uno de los errores más frecuentes entre los estudiantes, generando el 77% del total de errores ortográficos, frente a un 11% respecto de la ortografía dierética y un 12% de errores de ortografía literal. Asimismo, encontraron que los errores de ortografía conformaron el 18% del total de los errores lingüísticos analizados.

La diferencia del trabajo de Cabrera, Gómez y Jara (2014) con esta investigación es que los errores fueron cometidos por aprendices de segundas lenguas. En cambio aquí nos interesa el análisis de errores de hablantes nativos. Estas diferencias teóricas son las expuestas en el apartado 2.2 y las diferencias sobre el tratamiento del corpus de datos se expondrán oportunamente en el apartado 3.5. Otra distinción sustancial con este trabajo antecesor es que en este caso los criterios de clasificación de los errores de ortografía procuran respetar, a grandes rasgos, los mismos criterios de clasificación establecidos por la RAE y ASALE (2010) en la Ortografía. Estos criterios de clasificación suponen un análisis más pormenorizado y exhaustivo que el utilizado por Cabrera, Gómez y Jara (2014) y, además, son coherentes con el objetivo de verificación de nuestra hipótesis, puesto que esta pone en juego, justamente, la relación entre un sistema de escritura estándar como el que regula la RAE y ASALE (2010) para el español, con un tipo de escritura anómala como la de Facebook.

Sin embargo, el trabajo de estas lingüistas ha sido de gran utilidad para esta investigación en tanto que significa un antecedente valioso que nos permite trazar algunas líneas directrices a fin de continuar su esfuerzo, ampliando a la vez el campo de estudio del Análisis de Errores hacia terrenos que exceden el aprendizaje de segundas lenguas, como es el caso de la escritura en Facebook.

Otro antecedente lo encontramos en dos trabajos de Mancera Rueda y Pano Alamán (2013 y 2014). En el primero (2013), las autoras realizan un análisis de un corpus de 600 intervenciones de Twitter, Facebook y Tuenti, a partir de una serie de criterios entre los cuales se encuentran los errores de ortografía más frecuentes. A partir de su análisis las autoras distinguen entre los errores de ortografía en sí, que son consecuencia del desconocimiento de las reglas ortográficas, y las heterografías, que definen como fallos derivados de desviaciones intencionadas. Encuentran que la mayor frecuencia que fallos estaría condicionada por la clase de usuarios que utiliza cada red social. En nuestro trabajo, retomaremos su noción de heterografía para describir determinados usos creativos en Facebook que generan fallos.

Por último hemos de destacar que Gonzáles García (2011) señala la necesidad de estudios cuantitativos como el presente trabajo, que “evalúen el grado de corrección de los textos”. En la misma línea, la autora subraya que “resultará interesante indagar en los usos lingüísticos de los hablantes, con el objeto de detectar las dificultades más frecuentes y las nuevas tendencias ortotipográficas en la red” (p.107). Estas últimas indicaciones resultaron inspiradoras para la elaboración del presente trabajo y resumen en parte el objetivo de nuestro estudio.

2.4 Metodología de análisis

2.4.1 Corpus lingüísticos

La lingüística del Corpus surgió en los años 60; inicialmente fue utilizada por la lexicografía como base para elaborar diccionarios, especialmente el inglés (Herrero, 2009). Puede definirse como una metodología de estudio actual dentro de la Lingüística que se ocupa del lenguaje en uso, desde la observación, análisis y descripción de datos empíricos extraídos de comunicaciones orales o escritas específicas que conforman los corpus. La definición de Jan Svartvick va un poco más allá argumentando que “la lingüística corpus no es sólo una nueva metodología, sino una nueva forma de pensar sobre el lenguaje” (citado en Herrero, 2009, p.1026).

Un corpus se define como: “a collection of naturally-occurring language text, chosen to characterize a state or variety of a language” (Sinclair, 1991, p.171, citado en Herrero, 2009, p.1021)[9]. Por su parte, el diccionario de la RAE (2017) lo define como un “conjunto lo más extenso y ordenado posible de datos o textos científicos, literarios, etc., que pueden servir de base a una investigación”. Siguiendo los lineamientos trazados por Herrero (2009), un corpus debe ser representativo del discurso del que proviene y que procura describir; además, esas descripciones deberían ser el resultado de las evidencias dadas en el corpus.

Hay varios tipos de corpus, pero uno de los principales y el que más nos interesa aquí es Internet. Se puede considerar “el uso de internet como un gran corpus” (Hunston, citado en Herrero, 2009, p.1023). De este modo, Internet ofrece un enorme corpus de datos electrónicos que puede ser útil para realizar distintos tipos de investigaciones lingüísticas sobre problemas específicos. En esta línea, “un corpus electrónico (…) es la colección de datos lingüísticos auténticos (textos orales o escritos) donde se constata el uso de la lengua objeto de estudio” (Granger, citado en Cabrera, Gómez y Jara, 2014, p.388). Por último, Niesten y Sussex (2006), quienes utilizaron como corpus un grupo de conversaciones por chat, destacan que: “The language used in Internet chat constitutes a large body of language data-in-use, and one which is notorious for its asystematic, irregular, creative and unstable characteristics (p.65)[10].

2.4.2 Criterios de análisis para este corpus

Se detectarán y anotarán los errores siguiendo los criterios de clasificación establecidos por la última Ortografía publicada por la RAE y ASALE (2010). Además, dichos criterios se integrarán con los parámetros de análisis de errores establecidos por Corder. Cuando este autor se refiere a los errores de ortografía de los aprendices, utiliza la categoría de “Errores Grafológicos” e incluye cuatro tipos: errores de omisión, de adición, de selección y de orden (Corder, p.36).

Si bien los parámetros de análisis de errores que Corder utiliza, como hemos señalado en el apartado anterior, tienen que ver con los errores de aprendices de segundas lenguas, estos mismos criterios también nos resultarán de utilidad porque en ambos casos (aprendizaje de L2 y escritura en Facebook) se trata de errores ortográficos en el uso de una lengua. Asimismo, en ambos casos los fallos dependen de una norma estándar que no es respetada, ya sea la estándar de la segunda lengua a enseñar o la ortográfica.

Por ejemplo, los estudiantes extranjeros de países no hispanohablantes que llegan a España para estudiar suelen aprender el español en la variante peninsular, y es normal que cometan fallos al aprender esta lengua, pero siempre serán fallos respecto de una lengua estándar (más allá de que se les enseñe una variante u otra del español, en todos los casos sus fallos serán en relación a un sistema “meta” a alcanzar en el proceso de aprendizaje).

De modo análogo, los errores de ortografía de los usuarios de Facebook, son tales en tanto hay una normativa que los regula, un sistema estándar de escritura que en el caso del español, está codificado en la ortografía de la RAE y ASALE (2010).

La principal diferencia es que, en el caso de nuestro estudio, la norma estándar que no es respetada por los usuarios de Facebook al cometer fallos es una norma de escritura, pero en el caso de los fallos de aprendices de segundas lenguas se trata, en todo caso, de normas gramaticales generales que incluyen tanto a la oralidad como a la escritura. No obstante, hecha esta salvedad y atendiendo a la especificidad de nuestro objeto de estudio, los criterios de análisis de errores para segundas lenguas resultarán de utilidad para esta investigación y serán utilizados en el análisis.

Más allá de esta diferencia, en la definición misma de error cualquiera sea el tipo de anomalía gramatical que asuma, está implicada la referencia a un sistema que lo delimita en tanto fallo. En esta línea, la metodología del análisis de errores parte de realizar una reconstrucción de las emisiones erróneas, en palabras de Corder: “conect utterances into de target language (p.37) [11]. Por esta razón, nuestra metodología de análisis se basa en interpretar qué quiso escribir el usuario de Facebook al equivocarse.

En esta dirección, y siguiendo los criterios señalados por Herrero (2009) como propios del Análisis de Corpus, se analizará la estadística de ocurrencia de palabras que contengan errores para conocer qué tipos de fallos son los más frecuentes. La forma de extracción de los errores será manual, de manera que el investigador revisará uno por uno los mensajes en su contexto de aparición (dentro de la misma red, es decir, en ese contexto semiótico) para detectar los errores de ortografía, clasificarlos y analizarlos.

El modo de análisis de datos manual (no automatizado por el uso de software) que empleamos en este trabajo nos permitirá leer, analizar e interpretar cada mensaje en su contexto semiótico o semiosfera que ya definimos en la exposición de nuestra teoría de base, el MDA. Vale decir que el análisis cuantitativo y cualitativo efectuado por el investigador incluye los videos, canciones, fotos, emoticonos, etc., con las cuales el mensaje escrito se combina para conformar una significación global.[12]

Teniendo en cuenta todos estos criterios, se procederá oportunamente a un análisis cuantitativo en base a una estadística descriptiva básica de los errores de ortografía, que será complementado con un análisis cualitativo, interpretativo y crítico de los datos recogidos.

2.4.3 Precisión metodológica: distinción entre adecuación, aceptabilidad y corrección ortográfica

En este punto resulta indispensable hacer una distinción conceptual entre el criterio de adecuación y corrección, dado que esto tendrá consecuencias para la metodología de análisis de nuestro corpus. En efecto, al analizar nuestro corpus de mensajes, utilizaremos dos criterios distintos de evaluación: por un lado, detectaremos y clasificaremos los errores de ortografía, y esta clasificación se deriva del criterio de corrección ortográfica. Por otro lado, analizaremos, interpretaremos críticamente y describiremos la función de estos errores en su contexto semiótico, y esto supone considerar estos mensajes como textos significativos, adecuados en ese contexto puntual, más allá de que trasgredan o no normas ortográficas.

Por lo tanto, para realizar este análisis partimos de que todos los mensajes del corpus son adecuados, en tanto cumplen una función de significación concreta, más allá de que la realización formal del mensaje respete o no la norma ortográfica. Su adecuación se comprueba, por ejemplo, en el hecho de que mensajes con faltas de ortografía sean comprendidos y respondidos por otros usuarios, iniciándose en muchos casos diálogos a partir de estos mensajes con fallos: este hecho señala que los mensajes tienen un significado para otros usuarios y causan un efecto comunicativo, más allá de que se desvíen de las convenciones ortográficas. Niesten y Sussex (2006) han señalado esta diferencia entre la adecuación de los mensajes y su carácter asistemático, destacando incluso el carácter productivo o creativo de tales transgresiones: “Successful participants can create new non-standard norms” (p.68)[13].

En la misma línea se encuentran las definiciones de Mancera Rueda y Pano Alamán (2014), quienes destacan que en las redes sociales los jóvenes juegan con el lenguaje prescindiendo en cierta medida de la ortografía y de la gramática normativas.

Si no partiéramos de esta distinción metodológica entre corrección, adecuación y aceptabilidad, cometeríamos el absurdo de considerar que ninguno de estos mensajes son adecuados, puesto que, como ya se ha señalado, es común que las publicaciones de Facebook incumplan las reglas ortográficas. Una breve explicitación de ambos conceptos resulta procedente aquí a fin de otorgar claridad a nuestra exposición.

El diccionario del Centro Virtual Cervantes (2017) define la adecuación como la propiedad textual por la que el texto se adapta al contexto discursivo, amoldándose así a “los interlocutores, a sus intenciones comunicativas, al canal de producción y recepción, etc., parámetros todos ellos que definen los registros. Por tanto, un texto es adecuado si la elección lingüística efectuada es apropiada a la situación comunicativa.” En el marco de la escuela funcionalista y en particular de la lingüística textual, Halliday y Hasan (1978) usaron este concepto para definir la coherencia textual. Halliday y Hasan (1976) explican que la relación de coherencia del mensaje con el contexto de situación, además de su cohesión interna, es lo que nos lleva a reconocer que una serie de emisiones en un lenguaje componen un texto. Para los autores, un texto está determinado por su cohesión interna y por su coherencia externa con una situación, respecto de la cual la emisión puede ser o no adecuada. Sobre ambos criterios que determinan un texto, cohesión y coherencia, Halliday y Hasan (1976) afirman:

The one concerns relations within the language, patterns of meaning realized by grammar and vocabulary; the other concerns the relations BETWEEN the language and the relevant features of the speaker’s and hearer’s (or write’s and reader’s) material, social and ideological environment. (p.20)[14]

Pero a la hora de considerar los mensajes de nuestro corpus, esta noción de adecuación se complementa en nuestro análisis con la noción de aceptabilidad. Si bien ambas nociones tienen rasgos en común, hay algunos aspectos diferenciales que vale aclarar. El diccionario de la RAE (2014) define la aceptabilidad como el “conjunto de propiedades gramaticales y semánticas que un enunciado debe reunir para que resulte comprensible por los hablantes de una lengua”. El concepto de aceptabilidad también es definido por Corder (1967), cuando señala que una emisión aceptable es aquella que puede ser producida por un hablante nativo en una situación concreta en la que resulta apropiada y en la que es reconocida por otro hablante como una frase de la lengua. En ambas definiciones podemos notar que la noción de aceptabilidad involucra al receptor del mensaje de una manera más directa que la de adecuación, si bien la adecuación también lo incluye bajo la idea de que un texto es coherente con un contexto social.

La diferencia puntual entre adecuación y aceptabilidad aparece en el trabajo de Smith (2013), quien retoma las definiciones de Beaugrande y Dressler. Según Smith (2013) estos autores incluyen la intencionalidad y la aceptabilidad como normas textuales porque los hablantes no siempre manifiestan en su discurso una coherencia o una cohesión absolutas. En palabras de Smith (2013):

(…) puesto que ni la cohesión ni la coherencia garantizan en la práctica una delimitación precisa entre qué es y qué no es un texto, decisión que compete a los usuarios reales, existen normas que se refieren, por tanto, a las actitudes de los usuarios de los textos. Así, la intencionalidad, que se refiere a la actitud del productor textual, y la aceptabilidad, que se refiere a la actitud del receptor (Beaugrande y Dressler 1981: 7-8), requieren cierta tolerancia en cuanto a la falta de cohesión o de coherencia en un texto dado en una situación concreta, por lo que el proceso de comunicación, la producción y recepción de textos, queda definido como “discourse actions relevant to some plan or goal (op. cit.: 113). (pp. 74-75) [15]

Del otro lado, considerar el criterio de corrección también resulta apropiado aquí en tanto una de las metas de esta investigación es analizar la frecuencia de los errores de ortografía. El diccionario de Centro Virtual Cervantes (2017) define la corrección como “la ausencia de errores en el uso de cualquiera de las destrezas lingüísticas —comprensión auditiva, expresión escrita, interacción oral, mediación, etc.—.” Además, incluye en el concepto de corrección a otros tipos además de la gramatical: “corrección léxica, fonética, ortográfica, sociocultural, estilística, etc.” Afirma que el concepto de corrección está ligado esencialmente a la gramática preceptiva.

En plena concordancia con esta definición, la RAE y ASALE (2010) definen su ortografía como: “(…) un conjunto de normas que regulan la correcta escritura de una lengua” (p.9). La función de la ortografía, entonces, es normativa o preceptiva ya que establece un modelo culto de escritura que regula los usos escritos del español en torno al criterio de corrección y no de adecuación o aceptabilidad.

En al análisis del corpus utilizamos los criterios de corrección, por un lado, y de adecuación complementariamente con el de aceptabilidad, por el otro, sin confundir ambas perspectivas de evaluación. Esto es debido a que, como afirma Ghio (2001), un análisis lingüístico únicamente centrado en las preocupaciones tradicionales sobre la corrección de las formas lingüísticas podría conllevar una actitud sesgada que no atendiera a la diversidad de variantes dialectales y registros dentro de una lengua. En cambio, con esta delimitación metodológica y conceptual seguimos los lineamientos trazados por Guio (2001), quien propone “una descripción ‘neutra’ de las regularidades observadas en las prácticas, es decir, un registro de los usos más frecuentes que se puedan observar en una comunidad lingüística” (p.228).

Por todo lo expuesto, corrección ortográfica y adecuación (y, complementariamente, aceptabilidad) son criterios distintos y así son considerados en la metodología de análisis de nuestros documentos. Los mensajes de Facebook estudiados, entonces, se consideran a priori adecuados y aceptables para su contexto de aparición y en las situaciones comunicativas en las que intervienen.


  1. En el caso de las citas de textos en inglés, agregaremos nuestra propia traducción a pie de página: [(…) los textos en vídeo y los sitios digitales interactivos siguen siendo los mayores desafíos para los analistas del discurso del SF-MDA (p.ej. Djonov, 2006; Jones, 2007), debido a la complejidad del análisis del SF-MDA, a la naturaleza dinámica de los textos digitales y a la gran cantidad de datos que se generan (p.4).]
  2. [El desarrollo de las redes sociales y su importancia creciente en el mundo académico crean la necesidad de investigación académica sobre el tema.]
  3. Tomamos la acepción de gramática en su dimensión normativa, por un lado, en tanto la ortografía regula la escritura correcta, y también en su dimensión descriptiva, en tanto la ortografía constituye un sistema de convenciones para la codificación gráfica de la lengua.
  4. En adelante, y para evitar la proliferación de citas de esta misma obra, referiremos la página del libro citado.
  5. [El concepto clave en ambos casos es que el aprendiz está utilizando un sistema definido de lenguaje en cada punto de su desarrollo, aunque no es el sistema del adulto en un caso, y tampoco es la segunda lengua en el otro. Los errores del aprendiz son evidencias de este sistema y son en sí mismos sistemáticos.]
  6. [En cuanto al lenguaje usado en correos electrónicos, si bien son mensajes escritos, su estilo se ha caracterizado como habla (Maynor 1994), o como un “lenguaje centauro emergente, mitad habla, mitad escritura” (Barón 200: 248). Los rasgos de oralidad y los niveles altos de informalidad han sido subrayados por Yates/Orlikowski (1992) en contraste con el lenguaje usado en los mensajes tradicionales (véase Cho 2010 para una reciente reformulación de su perspectiva). En relación a estos rasgos orales, la naturaleza dialógica de los correos electrónicos ha sido subrayada. Esta característica de los mensajes de correo electrónico pueden ser extendida a otros géneros de CMC.]
  7. [Los géneros regulan y median las maneras en las que cada uno de nosotros interactuamos en la sociedad, y los sitios y páginas web no son una excepción.]
  8. [Internet ha tenido el mayor impacto en la vida social (véase Bargh & MacKenna, 2004, en prensa). En 2010, el 61% de los adultos usaron sitios de redes sociales (SNS) (Zickuhr, 2010). Facebook es la SNS más popular (Jain, 2010) con un billón de usuarios (Facebook, 2012)]. Esta información proporcionada por Seidman (2013) sobre la cantidad de usuarios de Facebook, si bien es correcta y una idea cabal del aspecto masivo del uso de Facebook, ha variado desde la publicación de su artículo.
  9. [Un grupo de ocurrencias lingüísticas naturales, elegidas para caracterizar un estado o variedad de lengua.]
  10. [El lenguaje usado en los chats de Internet constituye un inmenso cuerpo de datos de lenguaje en uso y es notorio por su carácter asistemático, por su irregularidad, su creatividad y sus características inestables.]
  11. [Vincular las emisiones con la lengua meta].
  12. No obstante, el corpus expuesto en el Anexo de Material Complementario de este trabajo se limita a los comentarios escritos y a los emoticonos incluidos en estos. Esto se debe a las limitaciones técnicas que supondría reponer para el lector la red completa de enlaces y modos de comunicación múltiples propios de una red social de este tipo. Sin embargo, consideramos que la exposición de estos comentarios, a pesar de estar así limitada, resulta coherente con nuestros propósitos, en tanto este trabajo se enfoca específicamente en analizar los errores de ortografía que aparecen en los comentarios de los usuarios personales, y no en los errores de ortografía que contienen los vídeos (en los subtítulos, por ejemplo), o en las imágenes que dichos usuarios publican y que incluyen texto. Se hará una exposición más detallada de esta decisión metodológica en el apartado 3.5.
  13. [Usuarios exitosos pueden crear nuevas normas no estándar.]
  14. [Uno tiene que ver con las relaciones dentro de la lengua, patrones de significado establecidos por la gramática y el vocabulario; el otro tiene que ver con las relaciones entre el lenguaje y las características relevantes del contexto material, social e ideológico del hablante y el oyente (o del escritor y del lector).]
  15. [Acciones discursivas funcionales a algún objetivo o estrategia.]


Deja un comentario