Comunicaciones

Análisis pragmático de la reacción me gusta en Facebook

María Asela Reig Alamillo
Universidad Autónoma Metropolitana

Alejandro Elizondo Romero
Universidad Autónoma Metropolitana

Palabras Clave: Facebook, interacción, me gusta
Keywords: Facebook, interaction, like

Desde hace algunos años la disciplina conocida como comunicación mediada por computadora ha ido ganando interés por parte de investigadores de diversos campos. El discurso mediado por computadora, subdisciplina de la anterior, analiza los procesos comunicativos a través de correo electrónico, páginas web, redes sociales, chats, blogs, etc., y, para ello, aplica en el análisis los conocimientos generados desde la pragmática y el análisis del discurso para dar cuenta de las particularidades de las nuevas formas de comunicación.

En este trabajo se aplican conceptos desarrollados en pragmática y, concretamente, en el análisis de las interacciones y el análisis de la conversación a un fenómeno específico de la comunicación realizada a través de la red social Facebook: el empleo del emoticono de reacción «me gusta».

Esta perspectiva aplicada permitirá explicar las diferentes interpretaciones que el «me gusta» puede recibir y cómo estas están condicionadas por factores bien conocidos por la pragmática y el análisis discursivo: la búsqueda de relevancia y asunción del papel cooperativo y no conflictivo del interlocutor.

  1. Facebook

Esta red se caracteriza por la posibilidad de que los usuarios integren en sus interacciones contenido lingüístico junto con imágenes, vídeos, hipertextos, encuestas entre otros. Una de ellas es lo que se ha denominado «me gusta», y cuya imagen (mano cerrada con pulgar arriba) ha llegado a ser una marca indudablemente relacionada con la red. Dicho icono da la posibilidad al receptor de reaccionar a un mensaje determinado, sea cual sea la naturaleza del mismo, simplemente indicando por medio del botón «me gusta» que dicho mensaje le agrada.

  1. La Interacción

El amplio concepto de interacción incluye intercambios tan variados como ir al mercado, jugar al fútbol o acordar una cita con un amigo. Se trata de situaciones muy diferentes, pero en todas ellas necesitamos interactuar, actuar conjuntamente con otros. En algunas de estas situaciones nos servimos de la lengua como modo principal para relacionarnos con el otro participante mientras que, en otras, la interacción es producto de un intercambio de acciones no verbales. Es frecuente, que en la interacción coexistan acciones verbales y no verbales, produciendo las llamadas «interacciones mixtas». En el contexto de la CMC, las interacciones mixtas son frecuentes y se integran principalmente por intervenciones lingüísticas e intervenciones llenas de información gráfica. En las redes sociales, el código no verbal más comúnmente usado es el de los denominados emoticonos, secuencias de caracteres que son interpretados como imágenes y no como código lingüístico, de forma que es posible interpretar una secuencia como 🙁 no como dos puntos y un paréntesis, sino como una cara triste.

Un aspecto interesante de observar las intervenciones y sus movimientos compositivos es la relación que una intervención mantiene con las demás intervenciones del mismo intercambio, en concreto, que determinado tipo movimiento espera determinado tipo de respuesta. Una pregunta requiere que el siguiente hablante dé una respuesta, y una invitación requiere la aceptación o rechazo.

Idealmente, en este intercambio la primera y la segunda parte del par se producirían una tras otra, pero en la práctica no es necesario que sean realmente adyacentes ya que la relación que une las dos partes no es la contigüidad sino una relación de dependencia que se ha denominado «pertinencia condicional». Este principio propone que existen respuestas preferidas para ciertos tipos de actos y respuestas no preferidas para los mismos.

  1. El «me gusta» como intervención reactiva

El «me gusta» es necesariamente reactivo, es decir, se emite como respuesta a una intervención anterior, sea esta lingüística o no. No puede responderse a estas intervenciones, lo que la diferencia de otras intervenciones en la misma red social.  Además, el emoticono supone un movimiento y no pueden combinarse en una misma intervención con otros emoticonos.

Desde el punto de vista del funcionamiento de la interacción, la intervención reactiva cuyo único movimiento expresaría agrado, sería esperada y admisible bajo las siguientes dos condiciones: Las valoraciones son respuestas «pertinentemente condicionadas» – esperadas y admisibles- después de actos asertivos. Enunciados como -estas son las mejores vacaciones de mi vida-, podrían, recibir como respuesta una valoración positiva. En cambio, las valoraciones positivas no son respuestas pertinentemente condicionadas tras otros actos como preguntas, ofrecimientos o invitaciones o actos directivos como peticiones u órdenes. Resultaría extraño que se respondiera a: ¿Alguien tiene un lapicero? con «¡Qué bien!».

La segunda condición propone que para que la reacción de expresar agrado sea aceptable debe haberse dado un turno iniciativo cuya respuesta «preferida» sea una valoración positiva. Esto dependerá no del tipo de acto, como en el punto anterior, sino del contenido de la intervención. La expresión de valoraciones positivas sería la respuesta preferida de turnos iniciativos en los que el contenido acertado es positivo, o en el caso de valoraciones o críticas de las que no es objeto el hablante. En cambio, sería una respuesta no preferida si el turno iniciativo comenta algo negativo para el hablante.

A pesar de lo anterior, el «me gusta» se usa constantemente como intervención reactiva a turnos que no cumplen con las condiciones mencionadas.

  1. Más allá del significado convencional

Dado que el «me gusta» era la única opción para responder a otras intervenciones de forma rápida por medio de un «click», sin necesidad de escribir, los usuarios de Facebook comenzaron a emplear el emoticono despojándolo de su significado semántico convencional. La intervención se volvió ambigua respecto a su contenido, cuya interpretación va a depender más de la posición que ocupa en la interacción y del contenido de turno anterior que del propio significado convencional. En términos lingüísticos, podríamos decir que su interpretación va a depender más de un enriquecimiento pragmático -condicionado por el contexto de la interacción y ciertos principios sobre el funcionamiento de la misma interacción asumidos por los participantes- que por el contenido explícito.

  1. El «me gusta» como pertinente

La tendencia a interpretar como pertinente un enunciado es un principio conversacional ampliamente compartido en pragmática. La búsqueda de la pertinencia de la reacción «me gusta» cuando la interpretación literal no resulta adecuada puede satisfacerse de dos maneras:

La primera consiste en interpretar que la valoración no es hacia los contenidos, sino hacia el acto enunciativo: me gusta que realices ese acto. Un par de emisiones como: – ¿Quieres un café?, ¡Qué bien! – puede ser juzgado como coherente interpretando que se alegra de que le haga un ofrecimiento. Con otros actos iniciativos, esta posibilidad va limitándose: puede recuperarse, aunque con más dificultad, con los directivos – ¿Me acompañas al supermercado?, ¡Qué bien! (qué bien que me lo pidas’) y más difícilmente las preguntas – ¿Alguien tiene un lapicero?: ¡Qué bien!).

La segunda manera es el vaciado semántico de «me gusta», que pasa de significar una muestra valoración positiva -del contenido o del acto- a emplearse exclusivamente como un retroalimentador para mostrar que se ha recibido el mensaje y que la intervención del interlocutor no quede sin respuesta.

En las interacciones de Facebook donde los usuarios ratificados en esas interacciones son amigos o conocidos, lo esperado es que los interlocutores traten de mantener la buena relación. En cambio, que en interacciones en perfiles públicos de Facebook (páginas de medios de comunicación, por ejemplo) la asunción de que el emisor desea mantener buenas relaciones no necesariamente aplica.

Es difícil  saber con qué frecuencia se recurre a cada una de estas estrategias -interpretar como retroalimentador o como valoración del acto de enunciación- y es posible que ambas  se pongan en práctica a la vez o que ni siquiera los usuarios sean conscientes de a cuál de ellas responde su empleo de «me gusta» en determinadas ocasiones, pero la alta frecuencia del emoticono «me gusta» para todo tipo de actos iniciativos solo puede explicarse porque los usuarios recurren a estas interpretaciones y esos mecanismos son motivados,  por la asunción de un principio de relevancia y de un principio de «buenos deseos» que se mantienen, también, en las interacciones en Facebook.

El empleo del «me gusta» en las interacciones en Facebook como intervención reactiva permite dar cuenta de las diferentes interpretaciones, literal y no literales, de este y de los elementos que condicionan estas interpretaciones alternativas. La interpretación literal como valoración positiva se obtiene cuando esta es una reacción pertinente y preferida, mientras que los mecanismos de búsqueda de pertinencia y la relación entre los usuarios dan cuenta de la reinterpretación de «me gusta» como intervención reactiva con otras características a las de la valoración positiva.

Bibliografía

GALLARDO PAÚLS, B. (1996), Análisis de la conversación y pragmática del receptor, Valencia, Episteme.

GALLARDO PAÚLS, B. (1998), Comentario de textos conversacionales, Madrid, Arco Libros.

HERRING, S. C. (2001), «Computer-mediated», en SCHIFFRIN, D., TANNEN, D. & HAMILTON, H. E. (eds.), The Handbook of Discourse Analysis, Blackwell Publishers Massachusetts, pp. 612-634.

HERRING, S. C. (2007), «DESA Faceted Classification Scheme for Computer Mediated   Discourse», Language@internet, vol. 4.

KERBRAT-ORECCHIONI, C. (1998), «La notion d ´interaction en linguistique: origines, apports, bilan», Langue Française, n.º 117, pp. 51-67.

SACKS, H., SCHEGLOFF, E. A. & JEFFERSON, G. (1974), «A simplest systematic for the organization of turn taking for conversation», Language, n.º 50, pp. 696-735.

¿Cómo respira Twitter?: valor y visibilidad en el campo literario 2.0 y 3.0

Paulo Antonio Gatica Cote
Universidad de Salamanca

Palabras clave: Twitter, Cibercultura, Sociocrítica, Sociedad-red
Keywords: Twitter, Cyberculture, Sociocriticism, Network Society

El conocido ensayo de Gabriel Zaid Los demasiados libros comienza con esta reflexión que alerta de la inflación autorial en un mercado cada vez más saturado por la multiplicación de la oferta: «los libros se multiplican en proporción geométrica. Los lectores, en proporción aritmética. De no frenarse la pasión de publicar, vamos hacia un mundo con más autores que lectores» (2010: 9). Sin duda, el ecosistema del libro ya había «sufrido» anteriormente desequilibrios tras la generalización de la imprenta de tipos móviles o la progresiva alfabetización de la sociedad. Ahora bien, dichos reordenamientos carecían de la inmediatez y la influencia de un proceso que trasciende el mal definido «impacto tecnológico» y configura un nuevo campo de desarrollo para las prácticas creativas, críticas y editoriales.

En un modelo cultural librocéntrico la comunicación literaria se presenta altamente codificada en torno al libro entendido como producto u objeto físico, cuya producción, venta y disfrute está regulado por el mercado. No obstante, el valor no es indiferente a criterios supuestamente estéticos, ya que a lo largo del proceso la obra ha de pasar determinados filtros de legitimación encarnados por la figura del «experto» en sus diferentes formas: crítico, agente literario, comité editorial, entre otros. En este sentido, existe un referente institucional que sanciona la relevancia o, directamente, prescribe más que diagnostica las tendencias que han de disputarse o compartir la hegemonía. En cambio, un medio que confiere idéntica visibilidad a cada una de las expresiones allí recogidas sugiere varios interrogantes: ¿cómo se crea el valor? ¿Qué tipos de mecanismos de reconocimiento operan para distinguir la praxis artística de la praxis comunicativa? ¿Cómo y dónde se archivan las prácticas legitimadas?

No es este el lugar para explorar por completo estas líneas, aunque sí hay que partir de una idea clave para comprender el fenómeno analizado: la lucha por la visibilidad. Aun a riesgo de menoscabar el contenido conceptual, la condición oceánica de Twitter remite a la imagen de una extensión inconmensurable de agua sometida a fuerzas o corrientes bajo la superficie: millones de tuits, hashtags, menciones y gifs que se suceden sin solución de continuidad y apenas ocupan escasos segundos en el timeline. En suma, cada tuit supone un pequeño espacio de 140 caracteres en la pantalla destinado a ser arrastrado por la corriente del medio.

En este contexto de sobreabundancia textual los usuarios deben aprender a respirar bajo el agua para no acabar sofocados ante la imposibilidad de fijar la temporalidad del medio. A simple vista, la «respiración» cumple con al menos dos funciones: una creativa y otra hermenéutica. Por un lado, el prosumidor desarrolla estrategias para «sacar la cabeza», generar visibilidad y valor añadido tanto por los contenidos propios –y, por supuesto, selecciones, retuiteos y recomendaciones– como por la calidad de sus círculos; por otro, el usuario se familiariza con los códigos del medio de tal forma que le permite detectar la relevancia individual y de las posibles trayectorias entre los signos.

Desde este punto de vista, la provisionalidad y la percepción homogénea confieren –en teoría– a cada tuit idéntico final y preeminencia en el magma comunicacional. Sin embargo, la visibilidad no consiste únicamente en la espacialización de las prácticas en entornos de legitimación institucional como el museo o los fondos de librerías y editoriales, en los que el visitante sabe que «accede» a un lugar-otro destinado al consumo cultural, sino que esta distinción se ha interiorizado y se manifiesta como un deseo de reconocimiento basado en la reputación; es decir, en el valor que la comunidad confiere a cada aportación.

En consecuencia, la visibilización de los contenidos en las redes sociales está muy relacionada con la producción-percepción de una identidad –entiéndase perfil atractivo–, ya sea por el alto grado de seguimiento/(re)conocimiento, por su actividad en nodos o redes consideradas valiosas, por la atracción de los tuits alojados. En el caso concreto de la creación en Twitter, la presencia de un «nombre-marca» o «marcas yo» (Escandell, 2014: 109) es una de las principales vías de adquisición de reconocimiento. Si el yo «autorial» disfruta de suficiente capital simbólico resultará más factible que sus contenidos cuenten con un alto nivel de atención; de esta manera, los mensajes serán leídos como un hecho diferenciado del resto desde su posicionamiento en el sistema literario. Con todo, la autoridad no se va a cifrar únicamente en el «capital de consagración» acumulado (Bourdieu, 1995: 224) en la esfera del libro.

De todas formas, no se puede asumir que todos los contenidos son realmente «consumidos» al igual que no todos los enlaces son activados; es más, habría que confrontar una cierta visión romántica del lector-explorador de hipertextos con la figura más prosaica del seguidor, quien, difícilmente, permanece atento a cada actualización o consulta del timeline que se prolongue por más de algunos minutos. Por esta razón, ante las habituales maniobras de scrolling, skimming o scanning, condicionadas por su puesta en pantalla y por la presentación en la red social, el prosumidor se afana en concentrar/encontrar una serie de «ideas fuerza» (Raphael, 2011: 48) que susciten el interés. Lógicamente, no se trataría aquí de detener el flujo semiótico, sino de provocar encauzamientos alternativos del timeline.

De todas formas, aun reconociendo la validez de muchas de las ideas dominantes sobre la inmediatez y velocidad, las redes sociales también permiten exorcizar el peligro de la indiferenciación estética/comunicación por medio de un ejercicio de contención expresiva. Respirar en Twitter no se refiere únicamente a la visibilización entendida como generación de valor o relevancia; además, remite a la cuarta acepción del verbo: «Dicho de un fluido que está encerrado: Tener salida o comunicación con el aire externo o libre». El diálogo no se ejecuta en la soledad del medio impreso, sino en plena efervescencia mediática: se forman comunidades de productores y agrupamientos inesperados. Así, cada tuit supone un mensaje o input que interactúa con su entorno semiótico.

Concretamente, me referiré a las principales estrategias de visibilización y generación de valor en el campo literario 2.0 y 3.0 en español. Mediante una metodología interdisciplinar que comprende, entre otras disciplinas, la sociocrítica o los sistemas complejos, analizaré dos estilos o poéticas que encarnarían dos comportamientos en Twitter: por un lado, una primera línea centrada en lo micro, en el hallazgo, clasificación y puesta en marcha de formas de interrupción de la temporalidad del medio; por otro, una segunda que privilegiaría la macroperspectiva, el sondeo y la producción de socialidad. Por tanto, este trabajo se propone analizar las principales estrategias de generación de valor y producción de presencia que adoptan los prosumidores en las redes sociales en el ámbito hispánico.

Bibliografía

BOURDIEU, Pierre (1995), Las reglas del arte. Génesis y estructura del campo literario, Barcelona, Anagrama.

ESCANDELL, Daniel (2014), Escrituras para el siglo XXI. Literatura y Blogosfera, Madrid-Frankfurt, Iberoamericana-Vervuert.

RAPHAEL, Pablo (2011), La fábrica del lenguaje, S.A., Barcelona, Anagrama.

ZAID, Gabriel (2010), Los demasiados libros, Barcelona, Debolsillo.

Compartiendo el dolor y el duelo online: La imagen digital autorreferencial de la enfermedad y la muerte como elemento de desestigmatización, conexión, visibilización y co-presencia

Montserrat Morcate Casera
Universidad de Barcelona

Rebeca Pardo Sainz
Universidad de Barcelona

María Dolors Tapias Gil
Universidad de Barcelona

Si bien la fotografía comienza su relación (en aquel momento fructífera y socialmente aceptada) con la enfermedad, el duelo y la muerte en el s. XIX, a lo largo del siglo s. XX la representación visual de estos temas se convirtió en un tabú, con la excepción de las fotografías médicas o el fotoperiodismo. Estas últimas imágenes, desde la ciencia y la noticia, ayudaron a crear una iconografía estigmatizadora y estigmatizante de algunas enfermedades como el SIDA o como los trastornos mentales. Como resultado, a menudo las únicas enfermedades y muertes representadas públicamente han sido las más violentas, peligrosas o contagiosas, contribuyendo de este modo a la deshumanización y a la marginalización de los afectados y su entorno.

Sin embargo, dentro del nuevo contexto digital, la hibridación de los smartphones con cámaras y el acceso de los usuarios comunes a la difusión, la comunicación pública y las plataformas sociales en línea como blogs o redes sociales han amplificado no sólo la cantidad de imágenes que se toman y se comparten, sino también los temas que se exponen públicamente y, lo que podría ser más importante: el responsable tanto de la toma como de la difusión de las imágenes con frecuencia es el propio implicado (ya sea el enfermo o uno de sus familiares).

Los pacientes, cuidadores y familiares están representando visualmente sus experiencias con la enfermedad, el dolor, el duelo y la muerte de forma cotidiana, de una manera normalizada y muy personal. Estas imágenes, compartidas en Internet, conectan con otros afectados por los mismos males, problemas, procesos o trastornos. En este tipo de conexiones, es importante lo que Marianne Hirsh ha denominado como «mirada afiliativa».

Por otro lado, estas nuevas prácticas en torno a las imágenes domésticas o familiares relacionadas con el dolor, la enfermedad, la muerte o el duelo están cambiando la idea de lo que merece la pena fotografiar o compartir. La imagen social de los afectados (especialmente importante en casos de enfermedad mental) puede estar desarrollando un rol importante como elemento de conexión y co-presencia para algunas personas afectadas por barreras geográficas o físicas, e incluso una herramienta para luchar por la concienciación, la visibilización y la petición de una mayor cobertura/sensibilización para sus necesidades.

De este modo, hay un número creciente de imágenes autorreferenciales de la enfermedad, el duelo y la muerte que se comparten a través de las Redes Sociales como una herramienta para reclamar concienciación y como un medio internacional para la conexión, la comunicación y la co-presencia. Estas narraciones visuales autorreferenciales en línea, también están contribuyendo a normalizar y desestigmatizar la imagen estereotipada de ciertas enfermedades y pacientes generados a través de la fotografía médica o el fotoperiodismo desde el siglo XIX, convirtiéndose así en referentes visuales cercanos y reales para otros con similares experiencias.

Finalmente, la hibridación de los smartphones con las cámaras digitales está transformando algunas prácticas fotográficas al mismo tiempo que replantea los límites entre lo que es público y lo privado. El consumo inmediato de imágenes compartidas en Internet, abre nuevos canales y formas de conexión y empatía entre pacientes y familiares/cuidadores. En este sentido, la fotografía se convierte en una especie de lenguaje universal capaz de generar comunidades de apoyo, contribuyendo en algunos casos a cambiar algunos estigmas sociales.

El proyecto de investigación que se presenta pretende por un lado establecer un análisis en profundidad de las nuevas prácticas mencionadas y del papel fundamental que tiene en ellas la imagen compartida online. Por otro lado, y como parte fundamental del proyecto, tiene la finalidad de servir al conocimiento y a la normalización de dichas prácticas a través de las herramientas creadas para dar visibilidad de los resultados contribuyendo a impulsar otros referentes visuales creados por los propios enfermos, moribundos o dolientes.

Entre las herramientas creadas están una web y un blog, y actualmente se está editando un libro y preparando unas jornadas cuyos resultados esperamos poder presentar también en su congreso en Málaga.

Bibliografía

MORCATE, Montse (pendiente de publicación 2017), «Exhibiting  pain, death and grief: from the art gallery to the image shared online», en TARR, J. and GONZÁLEZ POLLEDO, E. (eds.), Painscapes: Framing pain communication. Palgrave McMillan, UK.

MORCATE, Montse (pendiente de publicación 2017), «Tipologías y re-mediación de las imágenes de muerte y duelo compartidas en la memorialización online», REVISTA M, vol. 1, n.º 3.

MORCATE, Montse y PARDO, Rebeca (2016), «Grief, illness and death in contemporary photography», en THOMAS, Helen (ed.), Malady and Mortality: Illness, Disease and Death in Literary and Visual Culture, Cambridge Scholars, pp. 245-254.

PARDO, Rebeca (2016), «La representación de la muerte en narraciones autorreferenciales fotográficas de enfermedad contemporáneas», REVISTA M, vol. 1, n.º 2, julio-diciembre, pp. 379-400.

PARDO, Rebeca (2017), «Enfermedad mental, fotoperiodismo e Internet: hacia una visión más humana y normalizadora», Revistaad Comunica, n.º 13, enero.
En: (Fecha de consulta: 26-04-2017).

PARDO, Rebeca (pendiente de publicación 2017), «Photography and mental illness: feeding or combating the stigma of invisible pain online and offline», en TARR, J. and GONZÁLEZ POLLEDO, E. (eds.), Painscapes: Framing pain communication, Palgrave McMillan.

PARDO, Rebeca y MORCATE, Montse (2016), «Illness, death and grief: the daily experience of viewing and sharing digital Images», en GÓMEZ CRUZ, Edgar y LEHMUSKALLIIO, Asko (eds.), Digital Photography and Everyday Life, Routledge, pp. 70-85.

Web y blog del proyecto

WEBSITE:  (Fecha de consulta: 26-04-2017).

BLOG: <https://pain.hypotheses.org/> (Fecha de consulta: 26-04-2017).

Financiación

Financiado por una Ayuda de la Fundación BBVA a Equipos de Investigación en el Área de Humanidades Digitales (2015-2017).

La reconstrucción en 3D de la Azucarera de Nuestro Señor de la Salud de Santa Fe: límites y posibilidades de la virtualización en su aplicación al patrimonio industrial

José Castillo Ruiz
Universidad de Granada

Francisco José Sánchez Sánchez
Profesor Enseñanzas Medias

Aroa Romero Gallardo
Universidad de Granada

Eugenio Cejudo García
Universidad de Granada

Celia Martínez Yáñez
Universidad de Granada

Celia Martínez Hidalgo
Universidad de Granada

Victoria Quirosa García
Universidad de Jaén

Irene Santiago Pérez
Consultora de Patrimonio Cultural. Gesto

Laura Velasco García
Consultora de Patrimonio Cultural. Gesto

Palabras clave:  Patrimonio Industrial, Vega de Granada, Reconstrucción virtual 3D, Nuestro Señor de la Salud, Fábrica de azúcar
Keywords: Industrial Heritage, Vega de Granada, 3D virtual Reconstruction,  Nuestro Señor de la Salud, Sugar Factory

El trabajo presentado en esta ponencia se corresponde con parte de los resultados del Proyecto de investigación de Excelencia titulado Proyecto Refabrica³Da_ (P12-HUM-1478), en concreto los referidos a la reconstrucción virtual en 3D de la fábrica de azúcar de remolacha de Nuestro Señor de la Salud de Santa Fe en Granada (v. fig. 1).

La realización de este trabajo de digitalización ha resultado ser un interesante ejercicio metodológico que nos ha situado ante una serie de retos hasta ahora poco explorados en el ámbito de la virtualización del Patrimonio Industrial y cuya resolución aporta interesantes novedades que esperemos sirvan de referentes para futuros proyectos de este tipo.

Image and video hosting by TinyPic

Figura 1 Fábrica de Nuestro Señor de la Salud. Estado actual. Fuente: Proyecto Refabrica³Da_

Los retos a superar eran muchos, algunos comunes a las reconstrucciones virtuales del patrimonio industrial y otros específicos de esta fábrica. Por lo que respecta a los primeros, destacamos la necesidad de incorporar en la reconstrucción el proceso productivo de fabricación del azúcar (con la dificulta y coste que ello supone), con sus correspondientes máquinas, dada la poca relevancia formal, por lo general, de los elementos arquitectónicos y, sobre todo, la escasez de información visual y gráfica en la que basar las recreaciones dada la condición funcional de estos edificios y su inmediato desmantelamiento una vez cerrados. Por lo que respecta a los retos planteados por nuestra fábrica, destacamos el cierre tan temprano de su función como azucarera y, por el contrario, la pervivencia del cuerpo de fábrica y la alcoholera como contendores de muchas y variadas funciones a lo largo de la historia, lo cual ha permitido la conservación del recinto fabril hasta el presente, aunque resignificado desde otras funciones, especialmente la militar.

Todos estos condicionantes o retos, a los que hay que unir el escaso presupuesto manejado para la reconstrucción según lo concedido en la resolución del Proyecto de Investigación, han sido resueltas a través de estos procedimientos.

En primer lugar, incorporando en la reconstrucción la historia funcional y constructiva de la fábrica, lo que nos ha permitido superar la siempre peligrosa idea de repristino, en la que se suele vincular la reconstrucción de un inmueble al periodo inicial u originario del mismo. En este caso, precisamente esta primigenia función como azucarera ocupó un exiguo tiempo (1890-1904) en la larga y diversa historia funcional de este conjunto fabril, por lo que hubiera sido muy inadecuado patrimonialmente limitar la reconstrucción a esta etapa de azucarera. Pero la potencia histórica de estas otras funciones desarrolladas a lo largo de más de un siglo (almacenes, secadero de tabaco, viviendas, aserradero, almacén de maderas y, sobre todo, polvorín militar, en este caso durante más de 50 años, desde 1948 a 1999), no se ha correspondido con un efecto igualmente significativo sobre la materialidad de la fábrica, por lo que su identificación y traslación a la reconstrucción virtual (que demanda que estos cambios sean muy visibles y reconocibles) resultaba muy difícil de realizar. A ello había que unir la falta de fuentes de información y la destrucción de esos vestigios. Para resolver esta compleja cuestión hemos tenido que desarrollar una compleja labor de investigación documental y, sobre todo, buscar referentes gráficos en otros elementos semejantes.

En segundo lugar, incluyendo el contexto agrario e industrial de la Vega de Granada en el que se ha desarrollado la vida funcional de la fábrica. Puesto que resultaba inabordable, por la cuestión presupuestaria ya señalada, acompasar la evolución histórica de la fábrica con la del contexto, hemos procedido de la siguiente forma. Por un lado, reconstruyendo de una forma simbólica y figurada, pero muy atractiva desde el punto de vista visual (utilizando la estética Juego de Tronos), las 15 fábricas que se construyeron a lo largo del periodo agroindustrial de la remolacha (de 1882 a 1984) en Granada. Por otro lado, utilizando como soporte territorial el primer mapa topográfico-catastral de la Vega de Granada, el cual ha sido compuesto por nuestro equipo de investigación (constituyendo uno de los principales resultados del mismo) a través de la georreferenciación de las hojas de cada municipio elaborado por el Instituto Geográfico y Estadístico entre 1895 y 1897 (v. fig. 2).

Image and video hosting by TinyPic

Figura 2 Localización de las 15 azucareras construidas en la vega de Granada. Fuente: Proyecto Refabrica³Da. GESTO

Y en tercer lugar, procediendo a reconstruir la maquinaria. Sin duda se trata del reto más importante planteado al proyecto y el más complejo de resolver

Y en tercer lugar, procediendo a reconstruir la maquinaria. Sin duda se trata del reto más importante planteado al proyecto y el más complejo de resolver dado el desmantelamiento total de la fábrica en una época muy temprana (1904) y la falta de referencias visuales sobre las máquinas utilizadas y su ubicación física en el espacio productivo de la misma. Para resolver todos estos condicionantes hemos utilizado varias fuentes de información: documentación original de la fábrica procedente de diversos archivos, especialmente de la Sociedad General Azucarera de España, los catálogos de la compañía francesa Fives Lille, que es la empresa suministradora de la maquinaria, las imágenes históricas de fábricas coetáneas y que sabemos utilizaron la misma maquinaria y/o fueron construidas por el mismo arquitecto (Francisco Giménez Arevalo), las imágenes reales de máquinas conservadas de esa época, especialmente en la Fábrica de Nuestra Señora del Pilar de Motril y, sobre todo, la inestimable aportación del máximo especialista en patrimonio industrial azucarero, Miguel Giménez Yanguas, sin cuyo conocimiento no hubiera sido posible entender con claridad la función de cada una de las máquinas y su ubicación en el recinto fabril en función de su participación en el proceso productivo (v. fig. 3).

Image and video hosting by TinyPic

Figura 3 Proceso de trabajo seguido en la reconstrucción virtual de una de las máquinas (tacha) de la fábrica. Fuente: Proyecto Refabrica³Da_. GESTO y FAICO

Como resultado final de todo este proceso de reconstrucción tenemos, al margen de la historia precisa de la evolución constructiva y funcional de la fábrica de Nuestro Señor de la Salud, un producto cultural atractivo e históricamente riguroso que esperamos sirva de resorte y amparo (social e institucional) para activar (y reclamar) la conservación de uno de los más importantes vestigios del paisaje agroindustrial de la Vega de Granada y que actualmente se encuentra cerrado y en un progresivo y cada vez más irreversible proceso de deterioro.

Financiación

Incentivos a Proyectos de Investigación de Excelencia de las Universidades y Organismos de Investigación de Andalucía. Proyectos de Promoción General del Conocimiento y Proyectos Motrices e Innovación. Convocatoria 2012. Consejería de Economía, Innovación, Ciencia y Empleo de la Junta de Andalucía. Duración del Proyecto: 2014-2018.

Es importante señalar, para entender el alcance de esta reconstrucción, que todo el proceso técnico ha sido realizado por dos empresas privadas (FAICO y GESTO), las cuales lógicamente han trabajado en función del presupuesto existente. Esta externalización obedece a la filosofía de los proyectos de investigación motrices, a los que corresponde éste, y cuyo objetivo es crear sinergias entre el tejido productivo andaluz y la universidad, en este caso en el ámbito de las Humanidades.

Fotogrametría y análisis lumínico. Interacciones en el estudio de la arquitectura barroca

Pedro Luengo
Universidad de Sevilla

Javier Luengo
Universidad Roviri i Virgili

 Palabras clave: simulación lumínica, arquitectura barroca, historia del arte digital, siglo XVIII, fotogrametría
Keywords: light simulation, baroque architecture, digital art history, eighteenth century, photogrammetry

En las últimas décadas han aparecido diferentes técnicas de análisis digital del patrimonio inmueble que permiten plantear nuevos retos, dentro de lo que ha venido a llamarse Historia Digital del Arte (Bentkowska-Kafel, 2015). Este artículo pretende sacar partido de la unión de dos de ellas: la fotogrametría y el análisis lumínico de interiores, aplicándolos a un caso significativo: la iglesia de San Jacinto en Sevilla. Además, permitirá que estos datos se comparen con otros ya estudiados y se crucen con los de templos similares, avanzando así en el objetivo de una historia del arte global basada en la gestión masiva de datos (Rodríguez Ortega, 2017).

La fotogrametría debe considerarse como un método de alta fiabilidad en la toma de datos de elementos tridimensionales. Sus aplicaciones han sido muy variadas, aunque centradas principalmente en el estudio de elementos de pequeño o medio formato. En este caso, se pretende probar sus beneficios para la investigación de cuestiones arquitectónicas de gran tamaño (Luengo, 2016). Esto hará aún más interesante una herramienta accesible económicamente y muy versátil, utilizada hasta ahora con fines divulgativos principalmente. Para el caso de los levantamientos de grandes espacios es recomendable contar con el uso de un dron, como se ha hecho en este caso, lo que ha obligado a superar diferentes problemas de tipo técnico. El archivo resultante fue posteriormente reducido en número de polígonos, a través de un tratamiento retopológico, intentando minimizar la pérdida de detalle, pero facilitando los procesamientos de análisis posteriores. Para permitir su análisis por DIARelux, el modelo ha sido transformado en formato dwg.

El análisis lumínico de espacios históricos es una materia poco desarrollada hasta el momento, aunque con notables ejemplos recientes. Aunque estas investigaciones se iniciaron a finales del siglo XX, ha sido en las últimas dos décadas cuando el interés ha crecido (Almodóvar, Cabeza y García de Casasola, 2001; Jabi y Potamianos, 2007). Tras unos primeros años en los que esta metodología podría considerarse emergente, la reciente publicación de un manual en Oxford supone su consagración (Papadopoulos, 2017). Aunque la gestión de la luz es un aspecto fundamental para entender el diseño arquitectónico, no lo es menos para el estudio de la localización de otros bienes artísticos, desde la pintura hasta la platería pasando por retablos u otro tipo de mobiliario. Para las cuestiones arquitectónicas, se prevé entender qué zonas estaban iluminadas de forma más potente, con una mayor exposición de lux, en qué fechas y durante cuánto tiempo.

Aunque las dos técnicas son interesantes por separado, su unión ofrece algunas ventajas. El levantamiento fotogramétrico es una herramienta que permite levantar rápidamente estructuras tridimensionales poligonalmente muy complejas, como es el interior de una iglesia barroca con su mobiliario. Se trata además de una reconstrucción digital mucho más fiel que la que pudiera realizarse manualmente. Por otro lado, el análisis lumínico es mucho más completo cuando incluye en su análisis los obstáculos producidos por los elementos de mobiliario. Además, permite un análisis final mucho más intuitivo de los resultados.

Los escasos estudios previos sobre iglesias barrocas muestran que las zonas más expuestas lumínicamente son las de la nave central, con un mayor porcentaje en alturas medias y altas (Almodóvar, Cabeza y García de Casasola, 2001). Esto hace que las zonas con mayor decoración artística, como son los retablos, las yeserías o las pinturas murales, quedarían habitualmente bañadas por una luz muy tenue y durante pocas horas al año. Esto restaría nivel de detalle en la percepción por el visitante, dando un mayor significado al claroscuro de algunas obras. De la misma forma, el presbiterio suele ser un espacio especialmente sombrío en comparación con el resto del edificio. Obviamente, esto formaba parte del diseño arquitectónico, dejando oculto el sagrario y los elementos devocionales durante buena parte del año. Sólo en ocasiones principales, todo esto era iluminado por velas de cera que ofrecían una luminosidad diferente a la natural y más controlable. Por las dificultades técnicas de análisis, este tipo de fuente no será estudiada en este trabajo.

Para validar estas técnicas y sus posibilidades, se ha seleccionado un caso cuyo análisis inicial ofrecía numerosas posibilidades. La iglesia de San Jacinto fue diseñada por Matías José de Figueroa (1689-1740), quien lideró los trabajos desde 1730 hasta su fallecimiento en 1740, aunque las obras no se finalizaron hasta 1774. La importante familia de arquitectos a la que pertenece este autor ha sido abordada recientemente en una tesis doctoral (Nogales Márquez, 2015). Frente a otros templos anteriores sevillanos, éste muestra una evidente preocupación por la gestión lumínica y el confort térmico, debido a la localización de óculos ovales en una de las calles laterales, al escaso número y tamaño de los vanos del tambor de la media naranja, o al diseño de los ventanales de la parte superior.

Un análisis exterior de la iglesia de San Jacinto muestra un alto número de vanos de diferentes formas y alturas, que pueden considerarse originales. A los actualmente en uso habría que añadir otros que han sido claramente cegados. Entre estos vanos hay que distinguir los que están diseñados para servir de ventilación y los que tienen una finalidad lumínica. La diferencia es clara, ya que estos últimos conectan con el interior del templo. Aunque los primeros ofrecen una importante información para el estudio de la confortabilidad térmica en edificios históricos, en este trabajo se abordarán sólo los segundos. San Jacinto tiene una orientación suroeste-noreste, fruto del urbanismo previo. El lado de la Epístola linda con la calle, aprovechando un mayor número de horas de luz. Aquí pueden encontrarse varios tipos de vanos. En primer lugar, tres de forma ovalada en la separación de cada tramo; dos óculos circulares en las capillas de los pies, y dos cuadrados en las capillas más cercanas al crucero. El lado del Evangelio daba acceso al claustro, por lo que no cuenta con vanos de iluminación. En la nave central, la luz entra a través de un óculo a los pies del templo, y gracias a las ventanas de los lunetos de la bóveda de cañón. A esto habría que añadir los vanos del tambor del crucero. Se trata de ocho pequeños de perfil polilobulado, más cuatro balcones. Toda esta estructura de planta circular se encuentra embutida en un módulo cuadrado con sólo ocho pequeños vanos polilobulados al exterior. Esto hace que la media naranja tenga un carácter meramente ornamental, sin un fin lumínico destacable.

Tras analizar los resultados obtenidos por el simulador puede decirse que en primer lugar que el arquitecto subrayó lumínicamente la parte central de la nave principal y el coro, mientras que el presbiterio queda en una penumbra inferior a los 30 lux gran parte del año, insistiendo en resultados obtenidos en otros edificios del mismo siglo.  Parece claro que se pretendía gestionar lumínicamente esta parte a través de velas, aunque el carácter sombrío sería patente, dificultando el detalle de las piezas artísticas allí ubicadas. En segundo lugar, parece obvio que las diferencias estacionales estaban aminoradas, otorgando al espacio un carácter homogéneo durante todo el año. Por último, se demuestra que el edificio sería funcional durante las horas centrales del día, precisamente cuando las celebraciones litúrgicas y el rezo de las horas se llevarían a cabo de forma mayoritaria antes del Concilio de Trento, disminuyendo notablemente el gasto en cera de la comunidad.

Bibliografía

ALMODÓVAR MELENDO, José María, CABEZA LAÍNEZ, José María y GARCÍA DE CASASOLA GÓMEZ, Marta (2001), La Quimera de la Luz: Evolución de las Cúpulas en el Barroco Iberoamericano, Congreso Internacional del Barroco Iberoamericano.

BENTKOWSKA-KAFEL, Anna (2015), «Debating Digital Art History», DAH-Journal, n.º 1, pp. 51-64.

LUENGO, Pedro (2016), «Posibilidades de una historia digital de la arquitectura barroca: algunas herramientas y casos prácticos», Revista de Historiografía, n.º extraordinario 4, pp. 205-219.

NOGALES MÁRQUEZ, Carlos Francisco (2015), El arquitecto Antonio Matías de Figueroa, (Tesis doctoral inédita), Sevilla, Universidad de Sevilla.

PAPADOPOULOS, Konstantinos (ed.) (2017), The Oxford Handbook of Light in Archaeology, Oxford, Oxford University Press.

RODRÍGUEZ ORTEGA, Nuria (2017), «Art History and the Global Challenge: A Critical Perspective», Artl@s Bulletin, 6/1, article 3.

WASSIM, Jabi, POTAMIANOS, Iakovos (2007), «Geometry, light, and cosmology in the church of Hagia Sophia», International Journal of Architectural Computa. 5(2), pp. 303-319.

WASSIM, Jabi, POTAMIANOS, Iakovos (2016), «Parameterizing the Geometry and Visualizing the Lighting Method of Byzantine Church Domes», en AA.VV. (eds.), Digital Heritage. Progress in Cultural Heritage: Documentation, Preservation, and Protection, Cham, Springer, pp. 171-183.

Reflexiones sobre el «digitorial», un nuevo formato de presentación interactiva. Su aplicación al proyecto art-es

Carmen González-Román
Universidad de Málaga

Rudi Risatti
Kunsthistorischesmuseum

Palabras clave: Digitorial, formato expositivo digital, interactividad, performatividad
Keywords: Digitorial, digital display format, interactivity, performativity

La propuesta que aquí presentamos se enmarca en el proyecto I+D+i ART-ES Apropiaciones e hibridaciones entre las artes plásticas y las artes escénicas[1]. Este es un proyecto transdisciplinar integrado por investigadores de ámbito internacional procedentes de varias disciplinas: Historia del arte, Historia del espectáculo y Musicología. Acorde con este planteamiento metodológico, no es nuestra intención llevar a cabo un estudio pormenorizado de creaciones artísticas según una secuencia diacrónica, sino que apostamos por el análisis de casos particulares integrados en ámbitos temáticos que posibiliten el desarrollo del conocimiento de la poliédrica realidad de la cultura artística y visual europea de la Edad Moderna. En este sentido, nuestra investigación se propone demostrar los trasvases o fuentes comunes que intervienen en los procesos creativos de las artes plásticas o visuales y las artes escénicas de dicho período.

Entre los objetivos definidos en la memoria original de este proyecto se encuentra la elaboración de un diseño expositivo que permita difundir los resultados de la investigación, y que los haga accesibles a otros sectores culturales, educativos y sociales. En relación a dicho proyecto expositivo venimos implementando sistemas de reconstrucción y visualización virtual que ilustran los avances científicos desarrollados en las diversas líneas temáticas que articulan nuestra investigación. Dada la importancia de la imagen y lo digital en la sociedad actual entendemos que es esencial la transferencia del conocimiento en términos visuales, especialmente en nuestro proyecto, dado que gran parte de las creaciones artísticas que analizamos fueron originalmente de carácter efímero.

Reflexionando sobre el modo de elaborar un proyecto expositivo en formato digital que permita difundir los resultados de nuestra investigación y hacerla accesible tanto al ámbito científico como a otros sectores culturales, educativos y sociales, las preguntas formuladas fueron las siguientes: ¿Qué plataforma podría ser idónea para permitir el máximo de accesibilidad a un público diversificado?, ¿cómo obtener el máximo de calidad en la transmisión de contenidos y, al mismo tiempo, lograr que el dispositivo resulte agradable y atractivo? ¿Qué camino emprender para tener «bajo control» los costes de la implementación?

Llegados a este punto surgió la idea de recurrir a un instrumento innovador que algunas instituciones contemporáneas llaman «Digitorial»[2]. Desde hace unos años, instituciones como la Schirn Kunsthalle o la Städel Museum de Frankfurt y, más recientemente, el Kunsthistorisches Museum y el Theatermuseum de Viena, han creado con motivo de diversas exposiciones, plataformas digitales accesibles vía Internet que abordan temas relacionados con la exposición física, pero que lo hacen de un modo no convencional.

Un «Digitorial», término inventado por la Schirn Kunsthalle, institución que posee los derechos sobre el mismo, tiene de hecho como objetivo transmitir contenidos por medio de una cuidada combinación de textos, imágenes, animaciones, videos y sonido[3] (v. fig. 1). Todos estos elementos, sin embargo, se organizan según un orden bien definido, a través del cual los lectores o usuarios son progresivamente guiados como si se encontrasen en una exposición, solo que, a diferencia de una exposición física, el espacio de un «Digitorial» es puramente digital.

Se trata, en definitiva, de una página web cuidadosamente elaborada y diseñada para tratar, mediante un scrolling display interactivo, temas específicos, transmitir contenidos (v. figs. 2 y 3), presentar obras de arte y abrir espacios de reflexión individual[4]. A diferencia de una simple página web, los usuarios pueden elegir detenerse más en un elemento o en otro, además, el recorrido y las rutas son en gran parte diseñadas e implementadas por medio de sugerentes y atractivas animaciones.

Image and video hosting by TinyPic

Figura  1 Captura de pantalla del Digitorial Magritte. The Treachery Of Images, publicado online con motivo de la exposición homónima en la la Schirn Kunsthalle, Francoforte 10.2. – 5.6.2017 <© http://www.schirn.de/magritte/digitorial/en>

Image and video hosting by TinyPic

Figura  2 Captura de pantalla del Digitorial Magritte. The Treachery Of Images, publicado online con motivo de la exposición homónima en la la Schirn Kunsthalle, Francoforte 10.2. – 5.6.2017 <© http://www.schirn.de/magritte/digitorial/en>

Image and video hosting by TinyPic

Figura  3 Captura de pantalla de la pagina web The magic space. Stage – Image – Model, publicado online con motivo de la exposición homónima en el Theatermuseum, Vienna 20.4.2017 – 12.2.2018 <© http://www.theatermuseum.at/en/themagicspace/>

El «Digitorial» se revela como un instrumento muy versátil y al mismo tiempo potente. Estas características remiten respectivamente a la flexibilidad de quien lo crea y a la alta accesibilidad técnica y lingüística de cara a los usuarios. De este modo, el «Digitorial» como plataforma de presentación de los resultados del proyecto ART-ES permitirá mostrar los temas desarrollados bajo este formato en diversas lenguas y sin tener que enfrentarse a problemas de presupuesto excesivo ni de espacio físico en el que presentar una exposición.

¿Qué recursos son necesarios para crear un «Digitorial»? Ante todo es necesario disponer de contenido en forma de texto y, al mismo tiempo, materiales visuales (imágenes, video) de buena calidad, tanto originales como digitalizados, es decir, disponer de un banco de imágenes en alta resolución o materiales de video HD. En una segunda fase, vistos los materiales disponibles, es necesario elaborar un storyboard. El storyboard constituye la estructura del «Digitorial» sobre el que se montarán los textos e imágenes. Desde el punto de vista técnico es necesario disponer de un sitio web construido de modo claro, desde el cual sea posible acceder al «Digitorial» y a sus ramificaciones. Asimismo, para la realización es indispensable la participación de técnicos en programación, diseño gráfico informático y edición de videos (vid. fig. 4).

Una vez sentadas estas bases, será posible elegir de qué manera un usuario podrá moverse a lo largo del recorrido digital. En general, conviene que haya un inicio y un final, pero la cantidad y amplitud de los espacios y ramificaciones que se pueden encontrar a lo largo del recorrido no se imponen de modo férreo, sino que se deben elegir según determinados criterios: duración, actualidad de los contenidos, impacto visual (vid. fig. 5), así como potencial de entretenimiento de cara al usuario. Si se introducen demasiados temas y contenidos, el «Digitorial» resultará demasiado largo, complejo y aburrido y, por lo tanto, no habrá cumplido su objetivo. Si, por el contrario, el «Digitorial» facilita al usuario la posibilidad de desplazarse por la pantalla sobrevolando los temas, al tiempo que le permita profundizar en lo que a cada uno le interese especialmente, resultará un buen instrumento, no solo como plataforma digital de una exposición museística, sino como exposición de los resultados de una determinada investigación científica.

Image and video hosting by TinyPic

 Figura  4 Captura de pantalla de la pagina web The magic space. Stage – Image – Model, publicado online con motivo de la exposición homónima en el Theatermuseum, Vienna 20.4.2017 – 12.2.2018 <© http://www.theatermuseum.at/en/themagicspace/>

Image and video hosting by TinyPic

Figura  5 Captura de pantalla del Digitorial Photographs become pictures. The Becher Class, publicado online con motivo de la exposición homónima en el Städel Museum, Frankfurt 27.4. – 13.8.2017 <© http://becherklasse.staedelmuseum.de/en>

Los «Digitorial» elaborados por las instituciones citadas anteriormente se han revelado como dispositivos óptimos, pues animan a los usuarios a visitar la exposición montada en sus respectivas sedes museísticas. Pero no sólo eso. Dichos formatos digitales también favorecen la reflexión y el desarrollo de puntos de vista diversos después de una visita física al museo. Sin embargo, lo que parece no haber sido todavía suficientemente desarrollado en estos «Digitorial» es la participación activa de los usuarios. Esto guarda relación con el hecho de que el museo que gestiona dicha herramienta digital trata a los usuarios como visitantes digitales que pasan a través de un espacio expositivo digital.

Para nuestro proyecto de investigación, además del concepto «expositivo» implícito al «Digitorial», nos proponemos diseñar un espacio dentro del mismo en el cual los usuarios puedan participar, comentando, publicando textos o imágenes, o debatiendo sobre los temas y recorridos mostrados. Esta sería una opción nueva, aún inexplorada, con la que también buscamos abrir, utilizando este foro, un debate teórico en torno al «Digitorial»: ¿Se conseguiría mediante este formato digital expositivo superar definitivamente un modelo positivista («exhibicionista») en aras de un nuevo paradigma participativo («performativo») digital?

Financiación

Este trabajo es resultado del proyecto I+D+i ART-ES Apropiaciones e hibridaciones entre las artes plásticas y las artes escénicas (HAR2015-70089P MINECO/FEDER).

[1] ART-ES. Apropiaciones e hibridaciones entre las artes plásticas y las artes escénicas en la Edad Moderna. En: <https://artes.hypotheses.org/> (Fecha de consulta: 13-7-2017).

[2] El primer «Digitorial» fue realizado por la Schirn Kunsthalle para la exposición sobre Helene  Schjerfbeck (2-10-204 al 11-1-2015). En <http://schirn.de/schjerfbeck/en/> (Fecha de consulta:13-7-2017).

[3] Chantal Eschenfelder, responsable del «Digitorial» en la Schirn Kunsthalle de Frankfurt, considera que el «Digitorial», como instrumento de preparación de una exposición, forma parte de una estrategia global de dicha institución que incluye también Imagoras, un juego digital e interactivo para niños; la App del Museo Städel; la Colección Digital; el Proyecto de Investigación Zeitreise («Viaje en el tiempo»), un programa basado en el cine; Historia del Arte online; el Curso Städel sobre Modernidad y mucho más.

[4] Ch. Eschenfelder considera que en este tipo de herramientas digitales convergen formas de transmisión del saber y de narraciones completamente nuevas que modifican profundamente nuestro acercamiento a la formación y la información. Al mismo tiempo, opina que los desarrollos tecnológicos como la realidad virtual o el storytelling multimedia abren nuevas vías de investigación, representación, narración y transmisión del arte, constituyendo en este sentido el «Digitorial» un ejemplo óptimo.

Desvelando el pasado: el proyecto Artmedgis y las nuevas tecnologías para el conocimiento del arte islámico medieval

María Marcos Cobaleda
Instituto de Estudos Medievais (IEM – FCSH/UN)

Palabras clave: Proyecto ArtMedGIS, nuevas tecnologías, Sistemas de Información Geográfica (GIS), intercambios artísticos, arte islámico medieval, Mediterráneo; siglos XII – XV
Keywords: ArtMedGIS Project, new technologies, Geographical Information Systems (GIS), artistic exchanges, Islamic medieval art; Mediterranean; 12th – 15th centuries

  1. Introducción

La intención principal de este trabajo es presentar los resultados obtenidos a lo largo del primer año del Proyecto Europeo Analysis of the Artistic Exchanges in the Medieval Mediterranean between 12th and 15th Centuries through the Geographical Information Systems (GIS): A Critical Review of “Centre” and “Peripheries” (ArtMedGIS Project, MSCA – H2020, Grant Agreement nº 699818). Como se recoge en su título, el objetivo principal de este proyecto de investigación es evaluar los intercambios artísticos en el Mediterráneo tardomedieval a través de la aplicación de los Sistemas de Información Geográfica (SIG) a la investigación en Historia del Arte.

Como punto de partida, se han escogido las manifestaciones culturales de la época almorávide. De este modo, partiendo del arte y la arquitectura llevadas a cabo en el Norte de África y al-Andalus por esta dinastía bereber, se han seleccionado algunos elementos arquitectónicos desarrollados por los almorávides que supusieron una importante contribución al arte islámico occidental, como fueron los muqarnaṣ o los arcos de herradura apuntados (arcos túmidos).

  1. Objetivos

Para alcanzar la finalidad del Proyecto ArtMedGIS, basada en la evaluación de los intercambios artísticos en el Mediterráneo tardomedieval a través de la aplicación de los Sistemas de Información Geográfica (SIG), han sido establecidos cuatro objetivos específicos:

  1. Medir la presencia de ciertos elementos preseleccionados en las principales manifestaciones artísticas de los países islámicos y cristianos del Mediterráneo en la Edad Media tardía.
  2. Aplicar el nuevo método basado en los SIG, a través de la creación de bases de datos para estudiar los intercambios entre las principales manifestaciones artísticas del Mediterráneo y el arte almorávide.
  3. Evaluar la relación de la religión y el poder con las producciones artísticas de los países islámicos en el marco mediterráneo.
  4. Revisar los conceptos de centro y periferia en relación con la producción artística en el área mediterránea.
  1. Metodología

Durante el primer año del Proyecto ArtMedGIS, ha sido realizada la preselección de los tres elementos artísticos a estudiar durante los dos años de duración del proyecto, partiendo de la tesis doctoral Los almorávides: territorio, arquitectura y artes suntuarias (Marcos Cobaleda, 2010)[1]. Estos elementos son: los arcos de herradura apuntados (arcos túmidos), las denominadas Masŷid al-Ŷanā’iz («Mezquitas de los muertos») y los salmeres en forma de S presentes en el arranque de algunos arcos. Todos estos elementos aparecen en el marco del arte islámico medieval occidental durante el siglo XII, siendo especialmente desarrollados durante la época almorávide. Su interés radica en la gran repercusión posterior que tuvieron en el marco del Mediterráneo tardomedieval, estando presentes algunos de ellos no sólo en el arte islámico, sino también en las manifestaciones culturales desarrolladas por las sociedades cristianas entre los siglos XII y XV.

Tras la recopilación de la información relevante a las construcciones del marco Mediterráneo donde podemos encontrar estos elementos, llevada a cabo a través del método tradicional de la consulta en bibliotecas y bases de datos, durante este primer año de proyecto hemos elaborado gracias a los Sistemas de Información Geográfica (SIG), mediante la utilización de los programas ArcGIS y QGIS, dos de las bases de datos previstas en el proyecto, correspondiente la primera de ellas a los arcos de herradura apuntados y la segunda a las «Mezquitas de los muertos».

A partir de la implementación de las dos bases de datos creadas y gracias a las posibilidades ofrecidas por las herramientas de los SIG, hemos elaborado numerosos materiales cartográficos innovadores que permiten analizar diferentes fenómenos ligados a los intercambios artísticos y a la distribución geográfica de los elementos preseleccionados.

  1. Resultados

En relación a los resultados obtenidos en el primer año de proyecto, aunque éstos son todavía preliminares, hemos generado varios ejemplos de materiales cartográficos que nos permiten evaluar los fenómenos de distribución e intercambios artísticos producidos en el Mediterráneo tardomedieval. En relación a los arcos de herradura apuntados, parecen ser un fenómeno muy difundido en la parte occidental del Mediterráneo, mientras que sólo algunos ejemplos, bastante tardíos, pueden encontrarse en el Mediterráneo oriental. Por otro lado, su máxima utilización parece estar ligada a las construcciones religiosas, aunque también se encuentra de una manera prolífica en la arquitectura militar (v. fig. 1).

Con respecto a las denominadas «Mezquitas de los muertos», aunque el trabajo en esta base de datos está mucho menos avanzado que el de los arcos túmidos, por el momento parece que su localización está concentrada sobre todo en la ciudad de Fez, por lo que ha sido considerado por algunos autores como un fenómeno local (Terrasse, 1968: 22), a pesar de contar con algunos ejemplos fuera de esta localidad.

Image and video hosting by TinyPic

Figura 1 Tipos de edificios con arcos túmidos en el Mediterráneo tardomedieval. Creación del mapa: María Marcos Cobaleda. Mapa de base: Google Satellite

  1. Reflexiones finales

La aplicación del nuevo método basado en los Sistemas de Información Geográfica (SIG) a la Historia del Arte permite aproximarse a la investigación en esta área desde diferentes puntos de vista, relacionados no sólo con la distribución geoespacial de elementos artísticos, sino también con otros fenómenos más complejos ligados a las ideas religiosas, filosóficas y del poder, que permiten explicar la presencia de determinados elementos artísticos, conformadores de una estética propia, en un determinado lugar.

Financiación

El Proyecto ArtMedGIS ha sido concedido dentro de las Acciones Marie Skłodowsca-Curie del Programa de Investigación e Innovación Horizonte 2020 de la Comisión Europea, bajo el Grant Agreement nº 699818. Este proyecto ha sido acogido por el Instituto de Estudos Medievais (IEM – FCSH/UNL, Lisboa) e integra una estancia de investigación en el Laboratoire de Démographie et d’Histoire Sociale (LaDéHiS – CRH – EHESS, Paris) y otra en la Universidad de Granada (UGR, Granada).

Bibliografía

MARCOS COBALEDA, María (2010), Los almorávides: territorio, arquitectura y artes suntuarias, Tesis Doctoral Universidad de Granada. Disponible en: (Fecha de consulta: 23-6-2017).

MARCOS COBALEDA, María (2015), Los almorávides: arquitectura de un Imperio, Granada, Universidad de Granada – Casa Árabe.

TERRASSE, Henri (1968), La mosquée al-Qaraouiyin à Fès, París, Librairie C. Klincksieck.

[1] Una parte de esta tesis doctoral fue publicada con el título Los almorávides: arquitectura de un Imperio (Marcos Cobaleda, 2015).

Mapeando la Edad Media. El uso de los GIS en el estudio de la sociedad, la economía, el territorio, la actividad notarial y el paisaje monástico medieval

María Soler Sala
Universidad de Barcelona

Palabras clave: Edad Media, Paisaje histórico, Territorio medieval, GIS
Keywords: Middle Ages, Historical landscape, Medieval territory, GIS

  1. Introducción

Desde hace ya algunos años, y a través de varios proyectos de investigación, hemos utilizado los Sistemas de Información Geográfica (GIS) como herramienta de representación y análisis de la Edad Media. Con dicho sistema de georreferenciación hemos estudiado múltiples aspectos relacionados con este período histórico: el territorio, las formas de hábitat, la producción agrícola, los mercados o, más recientemente, incluso, el paisaje espiritual[1]. Dado que todo hecho histórico (sea del tipo que sea) ocurre siempre en un momento y en un lugar determinados, es posible geoposicionarlo, representarlo sobre una base cartográfica digital y estudiarlo a través de GIS. Tal circunstancia convierte dicha herramienta informática en un poderoso sistema de análisis histórico.

A partir de la experiencia que nos proporciona el haber trabajado con GIS durante más de quince años, nuestra intervención pretende mostrar no solo algunas de las investigaciones realizadas hasta hoy, sino también reflexionar sobre la utilidad de los sistemas de información geográfica en la investigación histórica: sus éxitos, oportunidades y limitaciones.

  1. Experiencias de mapeo con GIS

2.1. El condado de Barcelona en la Edad Media

Nuestra exposición se centrará en el estudio de un ámbito territorial bien conocido: el condado de Barcelona en el proceso de génesis y consolidación del feudalismo (siglos IX-XIII). Se trata de un territorio de casi 4.000 Km2 en el que desde hace unos años se ha llevado a cabo una intensa aplicación de los GIS en el estudio de su estructura social, económica y poblacional (Mauri, 2006; Soler, 2006).

En este caso, el uso de los GIS nos ha ofrecido muchas ventajas. Por un lado, nos ha permitido superar la exasperante fragmentación de la documentación textual conservada y trabajar de manera integrada con todo tipo de fuentes: escritas, arqueológicas y territoriales. Mediante el uso de un sistema de bases de datos capaz de gestionarlas de manera conjunta, y convirtiendo la georreferenciación territorial en el elemento de homogeneización necesario para su representación sobre una misma cartografía digital, hemos alcanzado el reto de trabajar a la vez con datos históricos muy diversos, entendiendo el paisaje histórico como un espacio de interpretación holística del pasado medieval. Los mapas resultantes de dicho proceso no son simples ilustraciones, sino verdaderas fuentes elaboradas a partir de las cuales analizar los procesos históricos acontecidos durante el período estudiado.

Nuestra intervención mostrará algunos de los mapas resultantes de nuestro trabajo, así como algunas de las más novedosas interpretaciones a las que tal metodología nos ha permitido llegar. Gracias al uso de GIS hemos realizado cartografías históricas sobre la economía de este territorio, muy especialmente sobre la actividad agrícola y ganadera (Soler, 2009; Soler, 2013). En ellos se representa no sólo la información contenida en las fuentes escritas, sino también la extraída de los yacimientos arqueológicos, cada vez más sensibles al registro de datos ambientales y faunísticos. El uso de GIS también ha sido significativo en el estudio de los intercambios económicos (Soler, 2015, Soler, 2017b), mejorando nuestro conocimiento sobre la red viaria y la geolocalización de los mercados y ferias rurales. Finalmente, gracias al análisis de la topografía urbana de villas y ciudades, hemos podido comprender los procesos de nucleación poblacional contemporáneos a la implantación del feudalismo, así como la evolución urbana de las villas medievales (Soler, 2003).

2.2. Los proyectos PAISAJES y SCRIBA

Más allá de ello, actualmente estamos dirigiendo nuestro interés a otras temáticas. Por un lado, y gracias a los proyectos de I+D CLAUSTRA. Atlas de espiritualidad femenina en los reinos peninsulares (HAR2011-25127) y PAISAJES ESPIRITUALES. Una aproximación espacial a las transformaciones de la religiosidad femenina medieval en los Reinos Peninsulares en la Edad Media (siglos XII-XVI) (HAR2014-52198-P), hemos definido el concepto de paisaje monástico: una percepción sistémica del espacio monacal que se interesa no sólo por la trayectoria particular de una determinada comunidad, sino también por las relaciones que establece con su entorno inmediato, cercano o más lejano (Garí, Soler et al., 2014). Bajo esta perspectiva estamos analizando el impacto territorial de las fundaciones monásticas medievales, tanto en el espacio rural como en el entorno urbano (Soler, 2017a; Costa, Sancho, Soler, en prensa). De igual manera, con la participación en el proyecto SCRIBA. Ir al notario en la Cataluña medieval (RecerCaixa, 2016), pretendemos geoposicionar la actividad de los notarios catalanes durante la Edad Media. Todos estos proyectos se enmarcan en el ámbito de las Humanidades Digitales y constituyen magníficas plataformas de investigación científica y difusión de resultados.

  1. Conclusiones

De acuerdo con lo que acabamos de decir, podemos concluir que los GIS han sido, son y continuaran siendo herramientas de gran interés para el estudio de la Edad Media. En primer lugar, porqué nos han permitido superar la siempre problemática fragmentación de las fuentes históricas, almacenarlas de manera integrada en una única base de datos y representarlas sobre una misma cartografía digital. En segundo lugar, porqué con ellos hemos podido afrontar análisis complejos y multinivel sobre la realidad del pasado. La generalización de los GPS, la actual facilidad de acceso a la cartografía digital y la aparición de diferentes soluciones GIS de código abierto, libre y gratuito constituyen novedades que están facilitando la difusión y uso de estas herramientas entre los investigadores medievalistas.

Ciertamente, la valoración es positiva. Pero los GIS tienen un potencial mucho mayor del que solemos aprovechar quienes de manera voluntariosa y, a menudo, autodidacta los hemos ido incorporado a nuestra investigación. A día de hoy, sabemos geoposicionar elementos y aplicar funciones básicas de recuento y diagramas; calculamos distancias entre puntos y empezamos a diseñar aplicaciones 3D para que estos cálculos se acerquen más a la realidad. Hemos hecho uso de los clústeres y de la interpolación de datos, pero a menudo nos resulta difícil ir más allá. Es aquí donde resulta imprescindible apostar por la creación de equipos interdisciplinares, formados por historiadores y arqueólogos, pero en los que se integren también geógrafos, informáticos y programadores, capaces de afrontar los principales retos de futuro: el análisis 3D y la aplicación de logaritmos complejos que nos permitan superar la simple interpretación visual. Sólo así seremos capaces de utilizar los GIS como algo más que simples programas de mapeo y aprovecharlos en todo su potencial.

Bibliografía

GARÍ, Blanca, SOLER, María, SANCHO, Marta, NIETO, Delfi-Isabel & ROSILLO, Araceli (2014), «CLAUSTRA. Propuesta metodológica para el estudio del monacato femenino», Anuario de Estudios Medievales, n.º 44-1, pp. 21-50.

MAURI, Alfred (2006), La configuració del paisatge medieval: el comtat de Barcelona fins el segle XI, Tesis doctoral inédita, Universidad de Barcelona.

SANCHO, Marta, COSTA, Xavier & SOLER, María (en prensa), «Monacato femenino y paisaje. Los monasterios de clarisas dentro del espacio urbano en la Cataluña medieval», Clarisas y dominicas. Modelos de implantación, filiación, promoción y devoción en la Peninsula Ibérica, Cerdeña, Nápoles y Sicilia, Florencia, Reti Medievali.

SOLER, María (2003), «Feudalisme i nucleació poblacional. Processos de concentració de l’hàbitat al comtat de Barcelona entre els segles X i XIII», Acta Historica et Archaeologica Mediaevalia, n.º 23-24, pp. 69-101.

SOLER, María (2006), Els espais d’intercanvi. El mercat en el procés de gènesi i consolidació del feudalisme al comtat de Barcelona (segles IX a XIII), Tesis doctoral inédita, Universidad de Barcelona.

SOLER, María (2009), «Une triple frontière alimentaire. Les communautés rurales de la marche du Penedès aux alentours de l’an mille», en MONTANARI, Massimo, PITTE, Jean-Robert (dirs.), Les frontières alimentaires, París, CNRS Editions.

SOLER, María (2013), «“Vino quod exiturus de ipsas vineas”. Producció i consum de vi al Penedès feudal (segles X-XII)», en SANCHO, Daniel (ed.), El món de la viticultura, els vins, caves i aiguardents al Penedès històric i al camp de Tarragona, Vilafranca del Penedès, Institut d’Estudis Penedesencs, pp. 65-77.

SOLER, María (2015), «From “forum Granate” to Vilafranca’s fair. Origin, foundation and articulation of a market network in the Feudal Penedès (9th-12th c.)», SVMMA. Revista de Cultures Medievals, n.º 6, pp. 171-190.

SOLER, María (2017a), «Propiedad monástica y sustento alimentario: el patrimonio productivo del monasterio de Sant Cugat del Vallès (siglos X y XI)», Hortus Artium Medievalium, vol. 23, n.º 1, pp. 478-489.

SOLER, María (2017b), «Territorio e intercambios. Origen, transformación y consolidación de la red de mercados rurales del condado de Barcelona entre los siglos XI y la primera mitad del siglo XIV», en NAVARRO, Germán, VILLANUEVA, Concepción (coords.), Industrias y mercados rurales en los Reinos Hispánicos (siglos XIII-XV), Murcia, SEEM, pp. 459-474.

[1] Esta contribución se enmarca en los proyectos de investigación: PAISAJES ESPIRITUALES. Una aproximación espacial a las transformaciones de la religiosidad femenina medieval en los Reinos Peninsulares en la Edad Media (siglos XII-XVI) (HAR2014-52198-P), dirigido por Blanca Garí y Núria Jornet (Universidad de Barcelona); y SCRIBA. Ir al notario en la Cataluña medieval (RecerCaixa 2016), dirigido por Daniel Piñol (Universidad de Barcelona).

IDEARQ: una infraestructura de datos espaciales de investigación arqueológica

Carlos Fernández Freire
Unidad SIG. Centro de Ciencias Humanas y Sociales, CCHS
Consejo Superior de Investigaciones Científicas, CSIC

Juan M. Vicent García
Grupo de Investigación Prehistoria Social y Económica,
Instituto de Historia, CSIC

Isabel del Bosque González
Unidad SIG. Centro de Ciencias Humanas y Sociales, CSIC

Antonio Uriarte González
Laboratorio Arqueología del Paisaje y Teledetección,
Instituto de Historia, CSIC

Alfonso Fraguas Bravo
Laboratorio de Arqueología del Paisaje y Teledetección,
Instituto de Historia, CSIC

Pedro Díaz-del-Río Español
Grupo de Investigación Prehistoria Social y Económica,
Instituto de Historia, CSIC

 Palabras clave: Arqueología, IDE, interoperabilidad, servicios web, Humanidades Digitales
Keywords: Archeology, SDI, Interoperability, web services, Digital Humanities

IDEArq es un sistema de información concebido para la difusión en Internet de datos de investigación arqueológica a través de su dimensión geoespacial <www.idearqueologia.org>. El objetivo de esta plataforma en línea es ofrecer acceso abierto a resultados arqueológicos producidos por grupos pertenecientes al Instituto de Historia (IH) del CSIC. Es una iniciativa vinculada al compromiso del CSIC con la política de acceso abierto al conocimiento científico producido con financiación pública. En esta misma línea, IDEArq está basada íntegramente en tecnologías de código abierto.

La plataforma es producto de la colaboración entre el Laboratorio de Arqueología del Paisaje y Teledetección (LabTel) y el Grupo de Investigación Prehistoria Social y Económica (GIPSE), ambos del Instituto de Historia, y la Unidad científico-técnica de Sistemas de Información Geográfica (uSIG) del Centro de Ciencias Humanas y Sociales (CSIC).

IDEArq es una Infraestructura de Datos Espaciales (IDE) de acuerdo a las normativas técnicas que definen las condiciones de interoperabilidad de información georreferenciada: la directiva Europea Infrastructure for Spatial Information in the European Community (INSPIRE), la serie de normas ISO 19100 y los estándares del Open Geospatial Consortium (OGC). Es decir, además de permitir integrar bases de datos científicas, metadatos, servicios web y otro tipo de información geoespacial (cartografía en línea, por ejemplo) posibilita las consultas a través de un navegador de Internet, donde se representa espacialmente el resultado de las mismas y se permite por otro lado, la descarga directa de los conjuntos de datos en un formato estándar. De este modo, los datos generados en la investigación son descubribles, accesibles, combinables y compartidos por aplicaciones externas como son los Sistemas de Información Geográfica (SIG), o consumidos directamente en tiempo real, mediante servicios web, por otros usuarios y sistemas de información a través de la Red.

En estos momentos, IDEArq ofrece acceso a la información de tres conjuntos de datos: la Base de Datos de Dataciones Radiocarbónicas de la Península Ibérica, el Corpus de Pintura Rupestre Levantina del CSIC y el Archivo de valores isotópicos de la Península Ibérica (δimP).

Una característica importante de IDEArq es que estos conjuntos, y los que se incorporen en el futuro, son independientes entre si pero están estructurados de acuerdo a un modelo de datos UML (Unified modeling Languaje) que es una extensión a su vez del «Modelo de Datos de Patrimonio Histórico», propuesto a partir de la especificación de datos de Lugares Protegidos de INSPIRE (Fernández Freire et al., 2014). Este marco de referencia, consensuado dentro de un grupo de trabajo interdisciplinar a nivel nacional, hace que todos los conjuntos de datos incluidos en la plataforma sean conceptualmente coherentes y compatibles.

El núcleo de la plataforma es un visualizador cartográfico que permite el acceso a los datos temáticos de investigación mediante su localización espacial, así como a breves descripciones de sus contextos arqueológicos, articuladas a partir de descriptores normalizados y referencias bibliográficas básicas que conducen al usuario a las fuentes primarias de información.

La localización de los yacimientos se ha atenido a las siguientes fuentes de información, según su disponibilidad: a) registros oficiales (p. ej., bases de datos de los servicios de patrimonio de las diferentes entidades administrativas, cartas arqueológicas, etc.); b) referencias geográficas precisas incorporadas a la bibliografía de referencia; c) geolocalización sobre las ortofotografías del PNOA, en general a través del visualizador IBERPIX, a partir de informaciones imprecisas (descripciones y/o croquis) presentadas por la publicación consultada. Aunque las coordenadas almacenadas en las bases de datos temáticas se han establecido con los niveles de máxima precisión y estas son utilizadas en las operaciones internas, la presentación de los datos a través del visualizador asume un umbral de escala, para garantizar la seguridad de los yacimientos arqueológicos. Con este fin, la escala de máxima aproximación en el visualizador equivale a una escala cartográfica 1:200.000, además de mostrar, tanto en los servicios como en el visor, las coordenadas redondeadas a 1 km.

La Base de Datos de dataciones radiocarbónicas de la Península Ibérica (IDEArq-C14) recoge hasta el momento unas 8500 fechas de C14 de contextos arqueológicos. Este repertorio se basa en la recopilación crítica iniciada en 1982 por el Dr. Antonio Gilman (California State University-Northridge, EE.UU.) como parte de sus investigaciones sobre la Prehistoria reciente de la Península Ibérica. El profesor Gilman ha actuado como editor principal de la base de datos. Su labor ha combinado la localización de los recursos bibliográficos con la lectura crítica de la información publicada, la resolución de contradicciones y ambigüedades, el cotejo de las diversas fuentes en un número muy elevado de casos, etc.

La mayor parte de la información recogida en la base de datos proviene de las fuentes bibliográficas, por lo que refleja el estado de la cronología radiocarbónica de la Península Ibérica aceptado por la comunidad científica. Solo un pequeño porcentaje de datos inéditos procede de los archivos del extinto Laboratorio de geocronología del Instituto de Química Física Rocasolano del CSIC. La generosidad de Antonio Rubinos Pérez, responsable de dicho laboratorio hasta su cierre en 2014, hizo posible su consulta e incorporación.

El ámbito geográfico provisional es el territorio peninsular de los países ibéricos. A través del visualizador los usuarios podrán consultar las dataciones disponibles a partir de la localización de los yacimientos. Cada datación está caracterizada por los siguientes atributos básicos: identificadores (laboratorio y número de serie), fecha en años de C14 antes del presente con su correspondiente desviación, material de la muestra, método de determinación e información contextual (estratigrafía, referencia bibliográfica y observaciones). Las citas bibliográficas proporcionan a los usuarios la posibilidad de acceder por sus propios medios a la información primaria.

El Corpus de Pintura Rupestre Levantina (CPRL) es la versión electrónica del Corpus de Arte Rupestre Levantino (CARL). Martín Almagro Basch, a la sazón director del Instituto Español de Prehistoria (IEP) del CSIC, dirigió este inventario fotográfico de las manifestaciones rupestres postpaleolíticas de la vertiente mediterránea de la Península Ibérica entre 1971 y 1976. El fotógrafo D. Fernando Gil Carles lo concibió y realizó con su equipo, razón por la cual los especialistas lo conocen como «Archivo Gil Carles» (un estudio detallado en Cruz Berrocal et al., 2005).

El CARL reúne documentación fotográfica de los motivos rupestres y entornos de 95 estaciones distribuidas en las comunidades autónomas de Aragón, Cataluña, Comunidad Valenciana, Castilla-La Mancha y Región de Murcia. Contiene dos series paralelas de fotogramas, en color y blanco y negro, de diversos formatos, hasta aproximadamente 6500 documentos gráficos con su correspondiente contextualización, contenida en «fichas arqueológicas», y descripciones de las estaciones y del propio proceso de documentación. Los fondos originales fueron depositados en la biblioteca Tomás Navarro Tomás del CSIC.

La incorporación del CPRL al proyecto IDEArq pretende facilitar el acceso a unos fondos fotográficos de gran valor documental, ofreciendo la posibilidad de consultarlos a partir de la localización geográfica de las estaciones. Contiene aproximadamente 3000 fotogramas en color de las pinturas, así como las fotografías en blanco y negro de las estaciones y sus entornos.

El Archivo de valores isotópicos de la Península Ibérica (δimP) es una base de datos de análisis de isótopos de estroncio, oxígeno, carbono y nitrógeno obtenidos de restos humanos y animales recuperados en contextos arqueológicos de la Península Ibérica. Esta información es muy relevante para conocer la dieta y la movilidad de las poblaciones del pasado, para lo cual es imprescindible la comparación de los valores obtenidos para cada muestra con los que corresponden a su entorno geográfico. La base de datos cuenta en la actualidad con 1136 análisis (657 sobre apatita y 479 sobre colágeno), procedentes de 49 yacimientos. Dichos datos proceden de trabajos previos publicados por diferentes equipos de investigación y de los resultados del proyecto Dieta y movilidad humana en la Prehistoria de la Península Ibérica (3100-1500 ANE).

Respecto al desarrollo futuro, IDEArq es y será un proyecto en proceso de renovación y ampliación constante, tanto en lo que se refiere a los contenidos como a las herramientas de acceso (interfaces temáticos de consulta avanzada, incorporación de los territorios insulares españoles, etc.).

Otros conjuntos de datos procedentes de proyectos de investigación en curso y futuros se irán integrando para lograr una red cada vez más densa de información científica compartida de acuerdo con la filosofía del «acceso abierto» que está en la raíz de la iniciativa. Esta orientación, derivada de la forma de acceso a la información y de los posibles modos de interacción con los usuarios, es uno de los rasgos más importantes de IDEArq. Por esta razón, entre los futuros desarrollos se prevé la creación de canales que permitan la recogida de contribuciones de mejora de la plataforma y sus contenidos.

Financiación

El trabajo se inició en el marco del proyecto CONSOLIDER INGENIO 2010 Investigación en tecnologías para la valoración y conservación del Patrimonio Cultural, CSD2007-00058. La incorporación del conjunto de datos de valores isotópicos δimP ha sido financiado por el proyecto del MINECO HAR2013-47776-R: Dieta y movilidad humana en la Prehistoria de la Península Ibérica (3100-1500 ANE). Los casos de la cuenca media del Tajo y el Alto Guadalquivir.

Bibliografía

CRUZ BERROCAL, M., GIL ESTEBAN, M., MARTÍNEZ NAVARRETE, M.ª I. (2005), «Martín Almagro Basch, Fernando Gil Carles y el Corpus de Arte Rupestre Levantino», Trabajos de Prehistoria, n.º 62(1), pp. 27-45.

FERNÁNDEZ FREIRE, C., PARCERO-OUBIÑA, C., URIARTE GONZÁLEZ, A. (eds.) (2014), «A Data Model for Cultural Heritage within INSPIRE», Cadernos de Arqueoloxía e Patrimonio 35, CSIC, Santiago de Compostela. En: (Fecha consulta: 04-06-2017).

Humanidades Digitales, Historia de la Ciencia y la Educación. Hacia un SIG histórico de la Junta de Ampliación de Estudios

Leoncio López-Ocón Cabrera
Instituto de Historia, CSIC

Ernesto Salas Tovar
Unidad de Sistemas de Información Geográfica, CSIC

Carlos Fernández Freire
Unidad de Sistemas de Información Geográfica, CSIC

Isabel Del Bosque González
Unidad de Sistemas de Información Geográfica, CSIC

Palabras Clave: Historia de la Ciencia, Historia de la Educación, Interoperabilidad, SIG, Modelado de Datos; UML, PostgreSQL, PostGIS
Keywords: Science History, Education History, Interoperability, GIS, Data Modelling, UML, PostgreSQL, PostGIS

La Junta para Ampliación de Estudios e Investigaciones Científicas logró internacionalizar la cultura, la ciencia y la educación española durante el primer tercio del siglo XX, entre 1907 y 1936, gracias a su política de pensiones, que se convirtió en un singular instrumento de transferencia de conocimientos. Entre sus dos millares de pensionados cabe destacar más de un centenar de profesores de enseñanza secundaria, la mayoría catedráticos, cuyas biografías se presentan en el diccionario online JAEeduca:

Este diccionario se ha elaborado gracias a dos proyectos de investigación de I+D+i financiados por la Secretaría de Estado de Investigación, coordinados desde el Instituto de Historia del CSIC [HAR2011-28368] y [HAR2014-54073-P]. El objetivo principal de este repertorio biográfico es determinar el papel desempeñado por esos profesores en las reformas e innovaciones que introdujeron en las aulas de sus centros educativos gracias a las pensiones que les concedió la JAE. Esas ayudas económicas permitieron a un amplio contingente de pensionados introducir nuevos métodos y técnicas pedagógicas al regreso de sus experiencias foráneas, fundamentalmente europeas pues Francia, Alemania, Bélgica, Reino Unido. Suiza e Italia fueron los principales puntos de destino de sus viajes formativos. Con esos nuevos métodos y técnicas ayudaron a transformar la didáctica de las diferentes disciplinas que cursaban los bachilleres: desde las ciencias naturales a la filosofía, pasando por las matemáticas y las ciencias fisicoquímicas hasta la historia y geografía, alentando la enseñanza activa y experimental, y el uso de representaciones visuales que estimulaban «las lecciones de cosas».

En la producción colectiva de este diccionario se ha tratado de recopilar una amplia información sobre un significativo colectivo de profesores renovadores, que intentaron simultanear sus labores docentes con sus actividades científicas. Para esa recopilación de información se ha diseñado un modelo de datos que recoge todas las posibles relaciones y propiedades de los elementos implicados en la investigación.

La puesta en marcha de un proyecto de Humanidades Digitales de esta naturaleza requiere abordar una sistematización de lo que en el ámbito del modelado de datos se denomina el Universo de Discurso, la parte del mundo real que queremos representar (Flanders y Jannidis, 2015: 11). El proceso de modelado supone identificar las entidades relevantes del universo de discurso y describir sus principales rasgos y conexiones. Para ello hemos emprendido un proceso de trabajo conjunto entre el grupo de investigación Mundialización y Mundanización de la Ciencia  y la unidad de Sistemas de Información Geográfica SIG del Centro de Ciencias humanas y Sociales (CCHS) del CSIC con el fin de elaborar un modelo de datos en lenguaje UML (Unified Modeling Language) que recoja todas las posibles relaciones y propiedades de esta información, permitiendo que la extensiva recopilación de datos, ya en curso, constituya el soporte de consultas y análisis espaciales y temporales que nos ayuden a comprender la forma en la que se construyen los espacios de memoria en este caso de estudio.

Los datos que instancian el modelo, debido a su carácter espacial, permiten ser el soporte de consultas y análisis espaciales y temporales del proceso de formación adquirida en el extranjero por el conjunto de profesores de instituto pensionados por la JAE.

El modelo de clases UML se ha implementado en un modelo Entidad-Relación desplegado en un Sistema Gestor de Bases de Datos de software libre, PostgreSQL.  La base de datos relacional ofrece la potencialidad de las consultas complejas en SQL integrando en ellas la funcionalidad de un Sistema de Información Geográfica a través del análisis espacial mediante la extensión espacial PostGIS.

Debido a este esfuerzo de estandarización se ha logrado crear una base de datos escalable, reutilizable e interoperable. Todo ello permite desarrollar diferentes formas de acceso y reutilización de la información generada por el proyecto. Este acceso puede ser requerido por otros investigadores o público en general. Gracias al carácter georreferenciado de parte de la información, podemos plantear la generación de servicios web de mapas que cumplan con la normativa y estandarización propias del mundo de la cartografía digital, además de otro tipo de accesos aún por determinar.

Una vez que se han establecido nuestras entidades del universo del discurso modelado pasamos a la fase final de este proyecto, la visualización y mapeado espacio-temporal de los datos. Es por ello que presentamos el geovisualizador del diccionario on-line como el elemento que permite a usuarios expertos y público en general consultar toda la información relativa a los profesores de instituto pensionados por la JAE de forma sencilla y directa. En el visor JAE-Educa: se podrán consultar los viajes de cada profesor, con sus etapas, supervisores, instituciones y materias cursadas. Las materias cursadas por países con una gradación según el número de estudiantes recibidos durante el transcurso de las ayudas de la JAE. Finalmente, una línea del tiempo que permite observar año a año o en períodos concretos los países más visitados con la información de los profesores pensionados e instituciones receptoras de los mismo, dentro del arco cronológico del proyecto.

Esta herramienta posibilita visualizar mejor las diferentes etapas de la política internacional de la JAE, apreciándose por ejemplo su repliegue en los años de la Primera Guerra Mundial, o su amplia apertura a tres continentes durante los años republicanos. También permite, como cualquier otro instrumento de visualización de datos (Chen et al., 2008), expandir nuestro conocimiento hacia un singular conjunto de pensionados de la JAE como fueron los profesores de instituto.

Bibliografía

CHEN, Chun-houh, HÄRDLE, Wolfgang Karl and UNWIN, Antony (eds.) (2008), Handbook of Data Visualization, Berlin, Springer.

FLANDERS, Julia and JANNIDIS, Fotis (2015), «Knowledge Organization and Data Modeling in the Humanities».
En:<http://www.wwp.northeastern.edu/outreach/conference/kodm2012/flanders_jannidis_da tamodeling.pdf> (Fecha de consulta: 11-07-2017).

Base de Datos y Aplicación SIG en el Proyecto ForSEAdiscovery

María José García-Rodríguez
Instituto de Historia, CCHS-CSIC

Ana Crespo Solana
Instituto de Historia, CCHS-CSIC

José Luis Gasch-Tomás
Instituto de Historia, CCHS-CSIC

Palabras clave: SIG, Historia Moderna, Naufragios, Arqueología Marítima, Dendrocronología
Keywords: GIS, Modern History, Shipwrecks, Maritime Archaeology, Dendrochronology

Resumen

En este trabajo se presenta el desarrollo de una Base de Datos y una aplicación en un Sistema de Información Geográfica (SIG), en el contexto del Proyecto multidisciplinario Marie Curie – ITN: Forest Resources for Iberian Empires: Ecology and Globalization in the Age of Discovery (ForSEAdiscovery”[1] que se enmarca en el periodo de la Primera Era Global. Durante los siglos XVI al XVIII, el barco fue considerado la máquina más sofisticada en su tiempo que les permitió descubrir un nuevo mundo, así como el establecimiento de nuevas redes sociales y comerciales, lo que dio lugar a la Expansión Marítima Europea. En el caso de los Imperios Ibéricos, el establecimiento de nuevas rutas comerciales planteó la necesidad de construcción de mercaderes armados, galeones y buques de menor tamaño, lo que originó una demanda sin precedentes de suministro de madera de los bosques ibéricos. De este modo, la silvicultura y el poder marítimo se unieron creando nuevas tensiones geopolíticas, alianzas y ordenanzas forestales.

  1. Introducción

El objetivo global del proyecto ForSEAdiscovery es investigar el origen de la madera y la construcción de los barcos para determinar si realmente existe un patrón de construcción de barco ibérico. Este Proyecto tiene como precedente los proyectos de SIG históricos: Dynamic Complexity of Cooperation-Based Self-Organizing Networks in the First Global Age (Dyncoopnet)[2] y GLOBALNET[3] (Crespo Solana, 2013, Crespo Solana, 2014). El  modelo de datos del Proyecto Dyncoopnet fue  diseñado para reunir información sobre el ciclo de vida de los barcos involucrados en las operaciones comerciales del Atlántico, donde se especifica el navío de cada viaje (espectro) y toda la información relacionada con el viaje, mediante un conjunto de tablas y relaciones a dichas tablas, donde se detalla el puerto de salida, el puerto de llegada, la ruta, la información relativa a las transacciones comerciales realizadas en cada uno de esos puertos, las incidencias que tuvieron lugar en cada viaje, entre otros campos (Pérez Asensio et al., 2012). Los naufragios del comercio de las Indias españolas fueron debidos a diferentes causas: climáticas, ataques de enemigos o batallas, mala construcción o reparación de embarcaciones, entre otras. Basándonos en el conocimiento de los naufragios históricos, ForSEAdiscovery se adentra en el origen de la madera y construcción naval en la época de la Expansión Marítima Europea durante tres siglos.

  1. Base de datos y SIG ForSEAdiscovery

La base de datos desarrollada abarca tres paquetes de trabajo: la historia, la arqueología marítima y el estudio de la procedencia de la madera (wood provenance) que incluye la dendrocronología que consiste en el estudio de los anillos de los árboles y diferentes tipos de análisis de química orgánica, inorgánica y ADN de la madera. Como primera fase, dentro del bloque de historia se ha realizado un estudio en numerosos archivos históricos[4] y bibliografía referente a naufragios[5]  y madera utilizada en la construcción naval durante la Primera Era Global. En el segundo paquete de trabajo de arqueología marítima se ha unificado la información de otras bases de datos de los colaboradores (Filipe Castro, Miguel San Claudio). Asimismo, se ha recogido la información de las diferentes campañas arqueológicas de pecios llevadas a cabo durante el proyecto en la Península Ibérica (Galicia, Portugal) y Reino Unido, donde se han recogido maderas in-situ para su posterior análisis. También, se han incluido las campañas forestales realizadas en la zona norte (País Vasco, Cantabria), central (Sierra de Guadarrama) y sur (Andalucía) de Península Ibérica de recogida de muestras de árboles y madera de edificios históricos para su contraste y verificación con la madera extraída de los pecios. La información de las muestras recogidas de dichas campañas, tanto arqueológicas como forestales, se han integrado en la Base de Datos de ForSEAdiscovery, asimismo también se incluirán con los resultados que se obtengan de los métodos dendrocronológicos y la investigación de anillos de árboles tree rings, anatomía de la madera y análisis dendro/geoquímicos.

Para la integración de las distintas fuentes de datos y los resultados de análisis de procedencia de la madera se ha creado un modelo de datos, dándole un nuevo enfoque a la arqueología marítima y la dendrocronología junto a los datos históricos de la base de datos de barcos ya existentes y a la base de datos de naufragios ibéricos recopilados en la primera fase. Este modelo de datos es el primer paso para la implementación de la información en un Sistema de Información Geográfica (SIG), a partir de esta estructura podemos simplificar la realidad, estableciendo la información relevante en tablas y campos dentro de la mismas y las relaciones entre tablas desde un punto de vista multidisciplinar. El tercer bloque «Procedencia de la madera» permitirá aportar un juicio de valor con respecto al origen de la madera a partir de los análisis pertinentes (Crespo Solana, 2016).

La base de datos de ForSEAdiscovery se estructura en tres tablas principales: «Naufragios_Historia», «Naufragios_Arqueología» y «Resultados_Analisis», a partir de ellas se relacionan las demás tablas del conjunto de la base de datos. La tabla de «Naufragios_Historia» contiene la información de los naufragios ocurridos en los viajes transoceánicos del Atlántico durante los siglos XVI hasta principios del XIX.

La tabla «Naufragios_Arqueología» registra los datos arqueológicos de la ocurrencia de un naufragio o pecio, si es conocido o en su caso el nombre del lugar de la exploración arqueológica marítima, campos referentes a la construcción del barco (procedencia ibérica, lugar de construcción, fecha,…) y otros datos acerca del método de datación, madera, especie, estado, tambien se refleja si existen publicaciones y bibliografía. Asimismo, esta tabla se relaciona con la tablas: «Tipo», «Información_Arquitectura», «Dimensiones» e «Información adicional», las cuales recogen información sobre las principales características de cada barco. Tambien se relaciona con la tablas de «Muestras», «Diario_Buceo» y «Registros_Visuales».

La tabla de «Resultados_Análisis» a su vez se relaciona con la tabla de «Muestras» donde se recogerá los resultados de los análisis del laboratorio de las muestras extraídas de los pecios y de la madera de árboles o edificios históricos.

  1. Resultados y Conclusiones

La Base de Datos de ForSEAdiscovery se ha implementado en un Sistema de Información Geográfica (SIG), con lo cual se pueden realizar consultas sencillas a sus atributos o realizar análisis más complejos que involucren las componentes espacio-temporales, dando lugar a nuevas perspectivas tanto para la historia como a la arqueología marítima, y por tanto, a una mejor comprensión del comportamiento de la navegación marítima en la Primera Era Global (García-Rodríguez et al., 2015). Por consiguiente, a través de este proyecto se pretende avanzar y profundizar en el conocimiento de una época pasada empleando las nuevas técnicas de información y comunicación, especialmente empleando los SIG (v. fig 1).

Image and video hosting by TinyPic

Figura 1 Naufragios ocurridos en la carrera de Indias recopilados en el SIG ForSEAdiscovery a partir de las fuentes históricas desde el siglo XVI hasta a principios del XIX. Créditos: María José García Rodríguez (Proyecto ForSEADiscovery)

En nuestro caso de estudio, el SIG (v. fig. 2) permitirá realizar análisis para determinar cuestiones como el origen de la madera y los bosques que se utilizaron para la construcción de los barcos ibéricos, poniendo de relevancia toda la información de la base de datos ForSEAdiscovery en aspectos tan influyentes como la construcción naval en la Península Ibérica y las rutas comerciales en la Era del Descubrimiento y la Expansión Europea.

Muchos de los trabajos del laboratorio del equipo de «Procedencia de la madera» están actualmente en desarrollo, posteriormente serán integrados en el SIG.  Asimismo, una vez concluidos los estudios, los resultados se difundirán en congresos y publicaciones internacionales de revistas especializadas en los campos de investigación.

Asimismo, se pretende realizar un Visor Cartográfico en Internet y un Servidor de Mapas (WMS), permitiendo la geo-visualización espacio-temporal, exploración y análisis de los naufragios y barcos. Para ello se empleará software libre (open-source) y se alojará en un servidor de la institución, facilitando la accesibilidad a los datos y la interoperabilidad a cualquier usuario con una simple conexión a Internet y un navegador.

Image and video hosting by TinyPic

Figura 2   SIG ForSEAdiscovery en el que se muestra información georreferenciada de los naufragios recopilados de fuentes históricas (punto azul), junto con las capas de «Naufragios_Arqueología» (punto rojo) y «Campañas marítimas» (símbolo del barco). Créditos: María José García Rodríguez (Proyecto ForSEADiscovery)

 

Financiación

Este trabajo ha sido financiado por el proyecto Marie Curie – ITN: Forest Resources for Iberian Empires: Ecology and Globalization in the Age of Discovery (ForSEAdiscovery) (PITN-GA-2013-607545).

 

Bibliografía

CASTRO, Javier de (1992), «Entre la literatura y la historia: Estructura y contenido de los relatos de naufragios de los tiempos de la Carrera de
Indias», Scriptura, n.º 8-9.
En: <http://www.raco.cat/index.php/Scriptura/article/view/94404/142604>.

CRESPO SOLANA, Ana (2013), «La Historia geográficamente integrada y los Sistemas de Información Geográfica (SIG): concepto y retos metodológicos», Tiempos Modernos. Revista Online de Historia moderna, vol. 7, n.º 26.

En: <http://www.tiemposmodernos.org/tm3/index.php/tm/article/view/331> (Fecha de consulta: 01-06-2017).

CRESPO SOLANA, Ana (2014), «The Wider world: Spatial Expansion and integration in the Hispanic Atlantic, 16th-18th centuries», en CRESPO SOLANA, A. (ed.), Spatio-Temporal Narratives: Historical GIS and the Study of Global Trading Networks (1500-1800), London, Cambridge Scholars Publishing, pp. 1-45.

CRESPO SOLANA, Ana (2016), «ForSEAdiscovery: Génesis y marco histórico-metodológico de un proyecto interdisciplinar en Humanidades», en VARELA GOMES, Rosa & VARELA GOMES, Mario (ed.), A Gestão Dos Recursos Florestais Portugueses Na Construção Naval Da Idade Moderna: História e Arqueologia, Lisboa, pp. 1-14.

FERNÁNDEZ DURO, Cesáreo (1867), Naufragios de la Armada Española, Madrid, Ministerio de Marina.

FLORES, M.ª Ángeles (1983), «Naufragios en el Golfo de Cádiz»,  Andalucía y América en el siglo XVI: actas de las II Jornadas de Andalucía y América,
n.º 1, pp. 333-360.

GARCÍA-RODRÍGUEZ, María José, GASCH-TOMÁS, José Luis y CRESPO SOLANA, Ana (2015), «Development of a GIS for Iberian ships in the Age of Discovery in ForSeaDiscovery Project», Poster Presented in ISBSA 2015, Proceedings International Symposium of Boats and Ship Archaeology. Baltic and Beyond. Change and continuity in shipbuilding, Gdansk, National Maritime Museum, September.

GOMES, R. y M. (eds.), A Gestâo dos recursos florestais Portugueses na construçao naval da Idade Moderna: História e Arqueología, Lisboa, IAP, pp. 1-15.

PÉREZ- LAKEY, D. C. (1987), Shipwrecks in the Gulf of Cadiz: A Catalog of Historically documented wrecks from the fifteenth through the nineteenth centuries, Tesis doctoral,Texas A&M University.

MALLAÍNA BUENO, Pablo Emilio (2015), Naufragios en la Carrera de Indias durante los siglos XVI y XVII. El hombre frente al mar, Sevilla, Editorial Universidad de Sevilla.

PÉREZ ASENSIO, Esther, BOSQUE, Isabel del, MAESTRE, Roberto, SÁNCHEZ-CRESPO, Juan Manuel, CRESPO SOLANA, Ana (2012), «Modelling and implementation of a spatio-temporal historic GIS», en Self-organizing Networks and GIS Tools. Cases of Use for the Study of Trading Cooperation (1400-1800), Scientific Paper, Journal of Knowledge Management, Economics and Information Technology.

SERRANO MANGAS, Fernando (1991), «Naufragios y rescates en el tráfico indiano durante el S. XVII», Enclave 92, Extremadura, p. 141.

[1] ForSEAdiscovery. Marie Curie Programme, European Union, (PITN-2013GA607545) <http://www.forseadiscovery.eu/>.

[2] «Dynamic complexity of cooperation Based-Self-Organizing Commercial Networks in the First Global Age, DynCoopNet» (TECT call, EUROCORES, European Science Foundation).

[3] Una ruta Global: Análisis histórico con bases de datos y visualización espacio-temporal del comercio marítimo internacional (1717-1850). GlobalNET Ministerio de Ciencia e Innovación, HAR2011-27694).

[4] PARES: Portal de Archivos Españoles, Ministerio de Educación, Cultura y Deporte <http://www.pares.mcu.es/>. Otras fuentes: Archivo General de Indias (AGI), Archivo Histórico Nacional, Archivo del Museo de la Marina, Biblioteca Nacional en Madrid, y Archivo General de Simancas en Valladolid.

[5] Algunas fuentes son: Fernández Duro, C. (1827), Pérez-Mallaína Bueno (2015), Lakey, D.C. (1987), Serrano Mangas, F. (1991), Castro, J. de (1992) y Flores, M. A. (1983).

Los aprovechamientos forestales de los bosques portugueses desde una perspectiva cartográfica durante la Unión Ibérica (c.1580-1640)

Koldo Trápaga Monchet
Universidad Rey Juan Carlos

María José García Rodríguez
Instituto de Historia, CCHS-CSIC

Palabras clave: GIS, legislación forestal, madera, bosques reales, Portugal
Keywords: GIS, forestry legislation, timber, royal forests, Portugal

  1. Introducción

Este artículo pretende aproximarse al conocimiento de los aprovechamientos forestales de los bosques reales de Portugal durante la Unión Ibérica desde una perspectiva cartografica. Se trata de un trabajo minucioso e inédito, siendo la primera vez en el que se utiliza un modelo de datos SIG para la representación cartográfica de la legislación forestal del reino de Portugal de la época moderna. Para su realización se han combinado fuentes históricas documentales con cartografía histórica antigua y cartografía SIG actual.

  1. Antecedentes

En las últimas décadas los estudios históricos medioambientales han conocido un gran auge. Numerosas son las obras que han abordado distintos aspectos de los bosques y la madera en Europa de la época moderna. Desafortunadamente, el caso del reino de Portugal ha pasado desapercibido, como se vislumbra del análisis de conjunto pan-europeo realizado por Paul Warde (Warde, 2006: 28-57). Sin embargo, algunos autores han estudiado la legislación forestal portuguesa durante la época moderna, y han elaborado algunos mapas que aportan una idea embrionaria de los bosques reales (Devy-Vareta, 1986: 5-37; Devy-Vareta & Monteiro Alves, 2007: 55-76; Labrador Arroyo, 2009: 225-241). En un caso se ha intentado incluso cartografiar los límites «ley del alcornoque» de 1575 y las áreas de los límites forestales de 1650, pero de forma somera (Joanaz de Melo, 2015: 31-38).

  1. Metodología

Para la integración de las fuentes descritas se ha creado una base de datos y se ha empleado un SIG de software libre (QGIS) para su implementación. El proceso de elaboración de la cartografía histórica forestal ha sido el siguiente:

  1. Dotación de coordenadas geográficas a los núcleos de población basándonos en cartografía actual producida por el Centro de Informação Geoespacio do Exército[2], y en base a la fuente (se han extraídos los topónimos, que en algunos casos varían o han cambiado).

La implementación de este método ha permitido la creación de 4 mapas empleando SIG: 1) el área de protección de los alcornoques establecido por el rey Manuel I (1494-1521) (v. fig. 1); 2) los centros poblaciones principales de los distritos forestales de acuerdo la legislación forestal emanada hasta 1584 (v. fig. 2); 3) la ordenanza de 1605 que incluye los principales distritos forestales y un área poligonal de todas las áreas forestales (v. fig 3); 4) la superposición de las dos áreas forestales estudiadas (la ley de protección del alcornoque del rey Manuel I y la ordenanza de 1605).

A raíz del minucioso análisis y cotejo de la documentación histórica con la cartografía antigua conservada en la BNE y la cartografía actual desarrollada por el Centro de Informacão Geoespacio do Exército de Portugal, se ha establecido los límites de las áreas forestales de los mapas 1 y 3. El área poligonal del mapa cartográfico 1 representa el espacio decretado por el rey don Manuel I (1495-1521) de salvaguarda de todos los alcornoques para construcción naval. Según la documentación histórica (BA, Ms. 44-XIII-61), esta área se extiende desde la desembocadura del Tajo hasta la ciudad de Abrantes y 5 leguas a ambos márgenes del río Tajo. La «legua portuguesa» seleccionada corresponde a 6 kilómetros (Cortesão, 1993, pp. 70-71).

Respecto al mapa 3, la información histórica indica los límites de los bosques y distritos forestales a partir de topónimos de la época (muchos de los cuales han cambiado su grafía actualmente) o bien por parajes naturales sin especificar los límites de forma exacta.

  1. Fuentes históricas

Uno de los mayores desafíos para el estudio de Portugal en época anterior al terremoto de Lisboa de 1755 es la escasez de fuentes documentales, circunstancia que agrega un valor añadido a este trabajo. Las fuentes históricas aquí empleadas conforman parte de la legislación forestal portuguesa desde 1500 hasta 1605. El corpus documental de mayor importancia es la recopilación legislativa realizada en 1584 por Heitor Botelho, juez de los bosques reales, por orden de Felipe II durante la Unión Ibérica. En ella se incluyen 2 tipos de legislación: la relativa a los distritos forestales y la referente a oficios con jurisdicción sobre los bosques (BA, Ms. 44-XIII-61). Esta legislación no ha sido estudiada en profundidad hasta el momento, y su análisis minucioso han sido la base de la elaboración de los mapas 1 y 2 (v. figs. 1 y 2). Por otro lado, la ordenanza del monteiro-mor de 1605 en el que se regulaba el oficio del monteiro-mor (responsable último del cuidado de los bosques reales) y de todos los distritos forestales (Andrade e Silva, 1854: 111-123).

  1. Resultados

Este estudio ha sido enfocado en el ámbito de Humanidades Digitales, para lo cual hemos empleado un SIG para la edición, consulta de atributos, visualización y representación cartográfica; posteriormente se realizarán análisis espacio-temporales. Para la representación e integración de las fuentes históricas en SIG, se ha combinado cartografía histórica de los siglos XVII, XVIII y XIX conservada en la Biblioteca Nacional de España con capas que incluyen los cursos fluviales y distintos niveles administrativos actuales del Portugal continental (local y regional)[3].

El primer mapa representa la «ley del alcornoque» publicada entre 1494 y 1521 por el rey Manuel I. En esta se creó un área reservada entre la desembocadura del Tajo y Abrantes y 10 leguas alrededor (5 a cada orilla), en la que nadie tenía permiso para cortar alcornoques sin obtener la autorización previa de la Corona. Para su realización en SIG, se ha empleado la capa de ríos poligonal de OSM. Primeramente, se ha unificado todos los polígonos que componían el río Tajo desde la ciudad de Abrantes hasta su desembocadura, creando un solo polígono. Posteriormente, se ha empleado la herramienta buffer generando un área que dista 30 kilómetros a ambos lados del río (correspondiente a 5 leguas portuguesas) (v. fig.1).

El segundo mapa representa los principales núcleos de población que actuaron de «capital» de los distritos forestales de acuerdo con la legislación forestal publicada en el siglo XVI (v. fig. 2).

Image and video hosting by TinyPic
Figura 1  Mapa 1

Image and video hosting by TinyPic
Figura 2  Mapa 2

Por último, el tercer mapa representa: 1) los principales núcleos de población que actuaron de «capital o sede principal» de los distritos forestales incluidos en la ordenanza de 1605. Se han representado los distritos de Colares, Sintra y Sierra de Sintra porque todavía eran bosques reales, aunque no estuviesen recogidos en la ordenanza; 2) las áreas forestales comprendidas en la ordenanza (v. fig. 3).

Image and video hosting by TinyPic
Figura  3  Mapa 3

El establecimiento de los límites geográficos se ha realizado a raíz de la información existente en la ordenanza de 1605 y la información cartográfica antigua de los siglos XVII y XVIII y la actual del Centro de Informação Geoespacio do Exército. La información recogida en la ordenanza de 1605 resulta difusa debido a que se utiliza la descripción literal del paisaje a partir de toponimia antigua y parajes naturales que se han visto modificados a lo largo del tiempo, dificultando la georreferenciación exacta de los límites del área forestal representado en el mapa. En lo que respecta al límite norte (Coimbra) se ha seleccionado 20 kilómetros al norte de la desembocadura del río Mondego. El distrito forestal de Coruche, en cambio, aporta información más detallada posibilitando la delimitación territorial en la sierra de Montargil, en el extremo SE del mapa. Más hacia el sur (distrito forestal de Alcácer do Sal) la información proporcionada por el regimiento de 1605 es más escasa, indicando que había multitud de árboles a ambas orillas del río Sado, por lo que la villa de Grandola ha sido seleccionado como el límite sur. En esta capa se realiza una aproximación del área geográfica de los bosques reales y privados comprendidos en la ordenanza de 1605. De la implementación de las capas en el SIG, visualización y análisis de los datos se puede concluir que la ordenanza de 1605 dibujaba un espacio continuo repleto de bosques y árboles. Sin embargo, la creación de este espacio descansaba más bien en razones jurisdiccionales que en fundamentos ecológicos de la existencia de una superficie forestal continua.

  1. Conclusiones

Este estudio es una primera aproximación a la cartografía histórica forestal de Portugal del siglo XVI-XVII en el que se ha empleado un modelo de datos de SIG. El análisis minucioso de la documentación histórica ha sido complementado conjuntamente con la cartografía histórica y la actual, modelo de datos que se empleará para desarrollar futuros trabajos de análisis. Como ejemplo de análisis estudiado, la superposición de las dos áreas forestales (mapas 1 y 3) en el SIG permite comprender la evolución de la legislación forestal portuguesa a lo largo de la historia. El regimiento de 1605 abarca un espacio geográfico más extenso que el área representada por la ley de protección de alcornocales del rey Manuel I (1494-1521) (v. fig. 4). Ambas leyes coinciden en privilegiar el espacio geográfico en torno a Lisboa y las vías fluviales, al ser estos enclaves fundamentales en las rutas de transporte de la madera utilizada en Lisboa para construcción naval.

Image and video hosting by TinyPic
Figura 4 Mapa 4

 

Financiación

Este trabajo ha sido financiado por el proyecto Forest Resources for Iberian Empires: Ecology and Globalization in the Age of Discovery (PITN-GA-2013-607545). Así mismo, se integra dentro de los proyectos «2016-T2/HUM-1179» y «H2015/HUM-3415» de la Comunidad Autónoma de Madrid.

[1]<http://www.bne.es/es/Catalogos/BibliotecaDigitalHispanica/Inicio/index.html>. Los mapas utilizados son: Les Estats de la Couronne de Portugal et Espagne de 1654 (BNE, GMG/390); The Kingdoms of Portugal and Algarve de 1794 (BNE, MR/4/I SERIE 13/004); Carta de la costa de Portugal desde el río Miño al río Guadiana según los trabajos portugueses más recientes, de 1877 (BNE, MA00013417).

[2]  .

[3] Los limites administrativos extraídos de la web Global Administrative Areas (GADM database) <http://www.gadm.org/>; Cartografía base de Open Street Map (OSM) <https://www.openstreetmap.org/about>.

La geolingüística en el contexto de las Humanidades Digitales

Pilar García Moutón
Profesora de Investigación del ILLA, CSIC

Palabras clave: ALPI, Atlas Lingüístico de la Península Ibérica, atlas lingüístico interactivo, Geolingüística Digital
Keyword: ALPI, Linguistic Atlas of the Iberian Peninsula, Linguistic Interactive Atlas, Digital Geolinguistics

La experiencia de elaborar y editar los materiales inéditos del histórico Atlas Lingüístico de la Península Ibérica (ALPI), que dirigió Tomás Navarro Tomás en el Centro de Estudios Históricos de la Junta para Ampliación de Estudios (JAE), permite una visión implicada de cómo se ha desarrollado la Geolingüística en los últimos años en el contexto de las Humanidades Digitales.

Este atlas, el único supranacional que estudia todas las variedades románicas peninsulares, constituye un testimonio único, anterior casi en su totalidad a los grandes cambios demográficos y culturales que produjo la guerra civil española. En 1962 el CSIC editó un primer tomo con 75 mapas, pero luego interrumpió su publicación, dejando el atlas prácticamente inédito. En julio de 2007, en el marco de las celebraciones del centenario de la JAE, se decidió retomar la obra para ofrecerla completa a la comunidad científica, gracias a las posibilidades de almacenamiento, elaboración y búsqueda que la tecnología permite actualmente[1].

El proyecto busca ofrecer en abierto los materiales del ALPI[2] a través de una herramienta desarrollada por el equipo que permite búsquedas simples y complejas sobre una gran masa de datos georreferenciados. Constituye un ejemplo de las ventajas de la colaboración entre los geolingüistas y los equipos TIC y SIG del Centro de Ciencias Humanas y Sociales del CSIC, que ha conseguido una herramienta específica para las funciones de consulta y cartografiado bajo demanda previstas para la web interactiva del ALPI[3].

La geovisualización de los resultados de las búsquedas no se limita, como en otros proyectos, a proyectarlos sobre Google Maps, sino que permite hacer mapas individualizados de áreas lingüísticas, límites e isoglosas, expansiones, influencias, retrocesos, etc. Esta potente herramienta apoya la investigación especializada, con capacidad de afinar unas búsquedas sobre otras, al tiempo que resulta suficientemente versátil para responder a la curiosidad lingüística del público general.

Estas características hacen del nuevo ALPI un atlas lingüístico excepcional por su diseño como atlas interactivo en el que el usuario, además de acceder a los datos originales, podrá construir y afinar su propia consulta, obtener un listado completo de resultados, cartografiarlos y exportarlos.

En mayo de 2016 Pilar García Mouton publicó en abierto desde el CSIC la página web del ALPI <http://alpi.cchs.csic.es/> con contenidos históricos, fotográficos y bibliográficos. Allí, en «consulta mapas», se accede a una muestra de la versión definitiva a partir de los datos correspondientes a diez preguntas en toda la red de encuesta. La concesión de un proyecto de Humanidades Digitales de la Fundación BBVA en la convocatoria 2014 ha permitido abordar la realización de un Atlas Lingüístico interactivo de la Península Ibérica que ampliará la consulta a 100 preguntas significativas para el estudio de fonética, morfología y sintaxis.

Image and video hosting by TinyPic

Figura 1 Red de encuesta del ALP

Con este proyecto, la Geolingüística española ocupa en las Humanidades Digitales un lugar que va más allá de la mera digitalización e, incluso, de la edición científica digital.

[1]El proyecto, sometido a evaluación europea, se concedió en marzo de 2009 (proyecto intramural CSIC, Referencia 200410E604, 2009-2014). Desde entonces trabaja en él un equipo internacional integrado por Pilar García Mouton, coordinadora experta en Geolingüística, Inés Fernández-Ordóñez (Universidad Autónoma de Madrid / Real Academia Española), David Heap (Universidad de Western Ontario), Maria Pilar Perea (Universidad de Barcelona), João Saramago (Centro de Lingüística de la Universidad de Lisboa) y Xulio Sousa (Instituto da Lingua Galega / Universidad de Santiago de Compostela).

[2] Respuestas correspondientes a 1056 cuadernos de encuesta digitalizados –dos cuadernos en cada uno de los 529 puntos de encuesta-, con 1258 preguntas por punto y una media de dos respuestas por pregunta.

[3]

Herramientas digitales e información bibliográfica especializada en áreas científicas: los proyectos BICRES y BiTe en la Historiografía Lingüística Española

Elena Battaner Moro
Universidad Rey Juan Carlos

Miguel Ángel Esparza Torres
Universidad Rey Juan Carlos

  1. Introducción

Los proyectos (a) BICRES y (b) BiTe son bases de datos que tienen por objeto reunir las fuentes primarias y secundarias del área de la historiografía lingüística española –aquellas obras en las que el español aparece como lengua objeto de la descripción lingüística o como metalengua– y ofrecer su descripción bibliográfica completa.

  1. a) La Bibliografía Cronológica de la lingüística, la gramática y la lexicografía del españoles una base de datos que incluye totalmente las fuentes primarias de la historiografía lingüística española. BICRES tiene como foco de interés principal la descripción catalográfica exacta, por orden cronológico, de las fuentes primarias de la lingüística española; ha sido realizado y dirigido por el Prof. Hans-Josef Niederehe (Universität Trier), quien publicó los primeros tres tomos con las referencias de las fuentes primarias publicadas hasta el año 1800 y un amplio y seguro repertorio alfabético de fuentes secundarias (Niederehe, 1995, 1999 y 2005). Junto al Prof. Niederehe, el Prof. Miguel Ángel Esparza y su equipo ha dirigido la creación y publicación de BICRES IV y BICRES V, que terminan el proyecto BICRES y que contiene las fuentes publicadas entre 1801 y 1900 (Niederehe y Esparza, 2012 y 2015). Para una valoración cuantitativa y cualitativa de los efectos de BICRES y BiTe en el área de historiografía lingüística española, v. Martínez Gavilán (2016) y Rodríguez Ponce (2016).
  2. b) La Bibliografía Temática de la Historiografía Lingüística Española. Fuentes secundarias(BITE) es, por su parte, una base de datos que almacena y organiza fuentes secundarias relativas a la historiografía lingüística española publicadas entre los siglos XVI y XXI. Su objetivo es facilitar al investigador material bibliográfico controlado y organizado y permite, además, reconstruir la investigación realizada desde el punto de vista historiográfico en una determinada disciplina o aspecto de la lingüística. La BITE fue publicada en 2008 (Esparza et al., 2008), por lo que contiene las fuentes secundarias de historiografía lingüística española –de nuevo, aquellas en las que el español es lengua objeto o metalengua– aparecidas hasta esa fecha. Contiene más de 4000 registros y alcanzó un registro de control de más del 80%. Asimismo, incluye diferentes índices de materias y disciplinas y un Índice de autores.

Dada la importancia que ha tenido BiTe como obra de referencia en el área de la historiografía lingüística desde el año de su publicación –prueba de ello, su número de reseñas y citas–, parece pertinente ofrecer a los investigadores una actualización de las fuentes secundarias publicadas en la última década, dado que diferentes índices –como número de publicaciones, congresos y revistas especializadas– muestran un importante aumento en la producción investigadora de esta área. Esta es la razón por la que parece necesario completar la información que ofrece BiTe con un nuevo proyecto –Apéndice I– que contemple incluir las publicaciones de historiografía lingüística publicadas entre 2008 y 2020.

En esta comunicación se explicarán las características de este proyecto digital bibliográfico con objeto de: a) ofrecer un ejemplo de la intersección entre Humanidades y mundo digital y de las ventajas que, de cara a la producción científica, está teniendo ya el acceso a determinado tipo de información; b) reflexionar acerca de la producción y distribución de conocimiento en un área científica especializada a través de diferentes herramientas digitales; c) valorar cómo contribuyen proyectos de este tipo a la constitución de un área de estudio que sobrepasa necesariamente límites territoriales nacionales y que promueve la inclusión de tradiciones internacionales; y d) evaluar el impacto que tiene este tipo de herramientas en la producción científica crítica en el ámbito de las Humanidades.

  1. Metodología

La creación de bases de datos bibliográficas es una tarea que exige una planificación precisa y un conocimiento exhaustivo del campo. Los autores de BICRES y BiTe cuentan con experiencia en la confección de bases de datos, bibliografía e historiografía lingüística española, que se pone de manifiesto en las tareas de composición de estas obras que, en resumen, son tres: a) creación de la base de datos y página web con criterios de interoperabilidad; b) la adaptación de la base de datos y la elaboración de la ficha bibliográfica; y c) la localización y el control de registros.

Para llevar a cabo el trabajo en equipo en red, es necesaria la instalación de software que requiere la compra de licencias. Para llevar a cabo este proyecto nos serviremos de la aplicación FileMaker Pro Server (sobre FileMaker 16 y ss.), una base de datos que, con la programación adecuada, genera de manera prácticamente automática una información completa —para ello se exporta un cálculo cuyo resultado es texto con marcas de formato, de tal manera que a través de macros ejecutables en un programa de tratamiento de texto se genera un definitivo–. Esta información, al menos en una versión en papel –trasladable a HTML– resulta de la exportación de los datos al programa de Microsoft Word para Macintosh, versión 12.3.2 (o similares; además de otras aplicaciones para obtener pdf), y se utilizarán fuentes Unicode.

  1. Novedades de este Proyecto

Creemos que BITE-AP1 contribuirá al crecimiento cuantitativo y cualitativo de la investigación, puesto que se prevé asimismo la publicación de trabajos de índole bibliométrica y que reflexionen acerca de la relación entre las Humanidades y el mundo digital. Así, BITE-AP1 puede aportar diferentes indicadores de productividad y calidad científica, índices de análisis de impacto –que sean específicos y novedosos en la investigación en Humanidades–, además de aportar información sobre otras cuestiones relacionados con la sociología y filosofía de la ciencia (como, por ejemplo, estudios de género).

Este Proyecto puede ofrecer una herramienta de búsqueda, consulta y manejo de información que pueda conectarse y a la que puedan conectarse no sólo los servidores generales o específicos, sino además todos aquellos centros de Investigación, nacionales e internacionales, interesados en el intercambio de este tipo de información. Del mismo modo, es de prever su conexión a redes de Bibliotecas –que contengan información digitalizada–, editoriales y centros educativos.

Con este Proyecto proponemos fijar una metodología –exportable a otras áreas de Humanidades– de recogida de información que asimismo tenga en cuenta parámetros de interoperabilidad de contenidos semánticos a nivel internacional, lo que no sólo asegura la preservación, difusión y reutilización de la información, sino que supondrá una clara novedad metodológica en Humanidades.

Bibliografía

ESPARZA TORRES, Miguel Ángel & NIEDEREHE, Hans-J. (con la colaboración de Adrián Álvarez Fernández, Elena Battaner Moro, Vicente Calvo Fernández, Lamia Haouet, Susana Rodríguez Barcia) (2012), Bibliografía cronológica de la lingüística, la gramática y la lexicografía del español (BICRES IV). Desde el año 1801 hasta el año 1860, Amsterdam/Philadelphia, John Benjamins Publishing Company (=Studies in the History of the Language Sciences, 118).

ESPARZA TORRES, Miguel Ángel, NIEDEREHE, Hans-J. (con la colaboración de Adrián Álvarez Fernández, Elena Battaner Moro, Gema Garrido Vílchez) (2015), Bibliografía cronológica de la lingüística, la gramática y la lexicografía del español (BICRES V). Desde el año 1861 hasta el año 1899, Amsterdam/Philadelphia, John Benjamins Publishing Company (=Studies in the History of the Language Sciences, 124).

ESPARZA TORRES, Miguel Ángel (dir.), BATTANER MORO, Elena, CALVO FERNÁNDEZ, Vicente, ÁLVAREZ FERNÁNDEZ, Adrián, RODRÍGUEZ BARCIA, Susana (2008), Bibliografía Temática de Historiografía Lingüística Española. Fuentes Secundarias. (=Romanistik in Geschichte und Gegenwart, Beiheft 17/1 y 17/2), Hamburg, Helmut Buske Verlag.

MARTÍNEZ GAVILÁN, M.ª Dolores (2016), «Publicaciones de Historiografía Lingüística Española: 2005-2015. Repertorio, clasificación y balance», en SALVADOR PLANS, A. & GALÁN RODRÍGUEZ, C. & MARTÍN CAMACHO, J. C. & RODRÍGUEZ PONCE, I. & JIMÉNEZ CALDERÓN, F. & FERNÁNDEZ DE MOLINA, E. & SÁNCHEZ RUFAT, Á. (eds.), La historiografía Lingüística como paradigma de investigación, Madrid, Visor Libros, pp. 133-192.

NIEDEREHE, Hans-Josef (1995), Bibliografía cronológica de la lingüística, la gramática y la lexicografía del español. Desde los comienzos hasta el año 1600 (BICRES I), Ámsterdam/Filadelfia, John Benjamins.

NIEDEREHE, Hans-Josef (1999), Bibliografía cronológica de la lingüística, la gramática y la lexicografía del español. Desde el año 1601 hasta el año 1700. (BICRES II), Ámsterdam/Filadelfia, John Benjamins.

NIEDEREHE, Hans-Josef (2005), Bibliografía cronológica de la lingüística, la gramática y la lexicografía del español. Desde el año 1701 hasta el año 1800 (BICRES III), Ámsterdam/Filadelfia, John Benjamins.

RODRÍGUEZ PONCE, M.ª Isabel (2016), «Publicaciones metateóricas», en SALVADOR PLANS, A., GALÁN RODRÍGUEZ, C., MARTÍN CAMACHO, J. C., RODRÍGUEZ PONCE, I., JIMÉNEZ CALDERÓN, F., FERNÁNDEZ DE MOLINA, E. & SÁNCHEZ RUFAT, Á. (eds.), La historiografía Lingüística como paradigma de investigación, Madrid, Visor Libros, pp. 193-206.

Valle-Inclán en red: el Archivo Digital del GIVIUS

Carmen E. Vílchez Ruiz
Universidad de Santiago de Compostela

Palabras clave: Valle-Inclán, Archivo digital, Base de datos, Humanidades Digitales
Keywords: Valle-Inclán, Digital Archive, Data Base, Digital Humanities

El propósito de esta comunicación es presentar el Archivo Digital Valle-Inclán del Grupo de Investigación Valle-Inclán de la USC (en adelante GIVIUS), que recoge el amplio fondo bibliográfico, documental, iconográfico y gráfico, compilado por el GIVIUS durante más de dos décadas. Este fondo está constituido por 4.500 documentos aproximadamente, que traducidos a imágenes digitales supera la cifra de 80.000. Más del 80% de los documentos citados proceden de la prensa de la época y más de 200 se corresponden con las sucesivas ediciones y emisiones de las obras del autor publicadas en vida (1895-1936).

La sistematización y explotación de este vasto «corpus» es posible gracias a la base de datos realizada ad hoc, gestionada mediante una herramienta web e implementada sobre un modelo conceptual de datos, formalizado en un Diagrama Entidad-Relación (Chen, 1976), que describe no solo la documentación impresa y recepción iconográfica de Valle-Inclán —ediciones de sus obras; textos de creación publicados en prensa (autónomos o dependientes de obras mayores); artículos; prólogos; traducciones; entrevistas; conferencias; discursos; cartas; caricaturas; retratos; fotografías; ilustraciones—, sino también la red de relaciones tejida por el escritor en el desarrollo de su actividad literaria, social, política y cultural, con los «agentes» —editores, traductores, autores, prologuistas, dedicatorios, destinatarios, firmantes de carta pública, críticos, periodistas, entrevistadores, ilustradores, caricaturistas, retratistas, fotógrafos— y «organismos» —instituciones, editoriales, imprentas, publicaciones— contemporáneos con los que directa o indirectamente se relacionó. Este complejo modelo ofrece, por tanto, más allá de la documentación primaria de la obra literaria del escritor, una valiosa información adicional, elaborada por el equipo académico, que si bien carece de naturaleza estrictamente literaria, constituye un elemento fundamental para conformar la poliédrica figura del escritor, analizar su posición y trayectoria en el campo literario de la época, y abrir en otras direcciones las investigaciones en torno a la «Edad de Plata».

Una vez descrito el contenido del Archivo Digital, trataré de explicar brevemente los desarrollos técnicos del proyecto (conceptualización del modelo de datos y herramienta de administración) para centrarme después en la presentación de la web pública:

  1. Navegación por el menú principal (obras, documentación, obras traducidas por Valle-Inclán, agentes, organismos, iconografía, ilustraciones), filtros de búsqueda ofrecidos en cada uno de los selectores del menú y acceso a los datos bibliográficos y visualización de los registros contenidos (PDF).
  2. Buscador Avanzado: permite la posibilidad de realizar búsquedas por contenido —mediante TXTs revisados por el GIVIUS— combinadas con búsquedas por datos estructurados. Visualización y exportación de la información recuperada (CSV).

En suma, este proyecto aspira a ser un archivo digital de referencia tanto para especialistas como para investigadores, profesores o estudiantes, y todo aquel interesado en la figura del escritor gallego.

Este proyecto cuenta con un largo recorrido, cuyo punto de partida se remonta a 2009, cuando el GIVIUS acometió la digitalización y catalogación del fondo para su preservación, consulta y estudio. La paulatina incorporación de las nuevas tecnologías al ámbito de la investigación humanística abrió una nueva vía de trabajo —que exigió, además, la formación específica de los integrantes del GIVIUS en Humanidades Digitales—, cuyo objetivo fue la creación de una base de datos y una aplicación web que permitiesen la sistematización, explotación y consulta de la información, así como la optimización del trabajo y de los resultados de investigación. Tras un primer intento presentado en el I Congreso Internacional de la HDH (A Coruña, 2013) —finalmente fallido—, el GIVIUS retomó su propósito inicial y comenzó una fructífera colaboración interdisciplinar con el Laboratorio de Bases de Datos (UDC) que sentó las bases del actual Archivo Digital Valle-Inclán. Una primera exposición de su origen, creación y desarrollo, se ofreció en un artículo incluido en un monográfico de Humanidades Digitales de la revista SIGNA, coordinado por Elena González Blanco (Vílchez, 2016), producto de la participación en una mesa redonda sobre archivos personales en el I Congreso Internacional de la AIEMH (Valladolid, 2015). En este último año y medio el proyecto ha seguido su curso con la ampliación del modelo de datos y la implementación de la web pública.

El equipo interdisciplinar que ha llevado a cabo el diseño y construcción del Archivo Digital Valle-Inclán ha sido dirigido en el ámbito académico por Margarita Santos Zas, e integrado por Rosario Mascato Rey, Francisca Martínez Rodríguez y Carmen E. Vílchez Ruiz, quien, además, ha realizado las labores de coordinación y gestión con el equipo informático del Laboratorio de Bases de Datos de la Universidade da Coruña dirigido por Ángeles Saavedra Places y Eduardo Rodríguez López. En el ámbito académico también ha sido fundamental el trabajo de búsqueda, compilación y sistematización del fondo documental desarrollado por Javier Serrano Alonso así como la colaboración de Adriana Abalo Gómez en el diseño de la web pública.

Financiación

Este Archivo Digital Valle-Inclán es una realidad gracias a la financiación de un Proyecto de Investigación del MICINN (FFI2011-24130), otro Proyecto del MINECO y Fondos FEDER (FFI2015-70845-R) y a las ayudas concedidas al GIVIUS en dos convocatorias consecutivas del programa Grupos de Consolidación e Estructuración de Unidades de Investigación Competitivas de la Xunta de Galicia (GPC2012-PG088; GPC2014-PG078).

Bibliografía

CHEN, Peter (1976), «The Entity-Relationship Model. Toward a Unified View of Data», ACM Transactions on Database Systems, vol. 1, n.º 1, pp.9-36.

VÍLCHEZ RUIZ, Carmen E. (2016), «El Archivo Digital Valle-Inclán: corpus impreso», Signa: Revista de la Asociación Española de Semiótica. Estado de la cuestión sobre Humanidades Digitales, Monográfico, n.º 25, pp.247-270.

Diseño e implementación de la base de datos BDAFRICA ejemplificada a través de la recepción de la literatura africana anglófona en España

María Remedios Fernández Ruiz
Universidad de Málaga

Actualmente, en España se investigan aspectos teóricos de la literatura poscolonial, pero no existe un repositorio de autores y obras que permita realizar estudios cuantitativos y cualitativos en torno a la recepción e impacto de la literatura africana en nuestro país con la precisión deseable. Esto supone una carencia tanto para las investigaciones académicas como para el sector editorial a la hora de analizar tendencias de selección y recepción en el mercado.

Ante esta situación, el objetivo primordial del trabajo que aquí presentamos es «diseñar e implementar una base de datos», basada en el Sistema Gestor de Base de Datos MySQL (Structured Query Language) que recoja todas las obras de autores africanos publicadas en España entre 1972 (año en que España se unió al sistema ISBN) y 2014.

Tras determinar unos «criterios de diseño» y un «protocolo de compilación» específicos, se ha dividido el desarrollo metodológico en cuatro fases, a saber:

  1. Recopilación: búsqueda y evaluación de fuentes y selección de ediciones.
  2. Almacenamiento: introducción de los datos en una hoja de cálculo y sistematización de los resultados.
  3. Tratamiento: exportación al SGBD Access para su análisis y cuantificación.
  4. Difusión: exportación y publicación mediante el SGBD MySQL.

El uso estadístico que se ha llevado a cabo es descriptivo y univariado o bivariado, pero la base de datos, basada en MySQL, ofrece un «potencial analítico multivariado e interdisciplinar» aplicable en los estudios poscoloniales, los estudios de traducción, filologías, sociología o antropología, entre otros.

De este modo, la finalidad de esta investigación es doble: por un lado, pretendemos facilitar la tarea de jóvenes investigadores que se enfrentan por primera vez a estudios de literatura poscolonial en España y no tienen acceso a un «repositorio estructurado» compilado a tal efecto; por otro lado, la base de datos permitirá, por primera vez, hacer un «tratamiento estadístico» de la evolución que ha sufrido la publicación de obras de autores africanos en España en estos 42 años.

Los estudios poscoloniales se han convertido desde los años ochenta en un campo de estudio imprescindible y fecundo vinculado a múltiples disciplinas, tales como la historia, la antropología, los estudios culturales o el arte. En traducción, la disciplina que en este caso nos atañe, se ha conseguido romper con el canon que condicionaba la traducción de un texto híbrido en un contexto europeizado. De esta forma, consideramos nuestro trabajo necesario para favorecer el conocimiento de la literatura y la traducción poscolonial en España, así como los estudios poscoloniales, que gozan de un desarrollo tan amplio en otros países.

En primer lugar, contextualizaremos la recepción de la literatura poscolonial africana en el mercado editorial español gracias al diseño e implementación de la base de datos BDÁFRICA. En segundo lugar, contribuiremos con datos cuantitativos inéditos a documentar dicha recepción, ejemplificándola a través de la literatura africana anglófona.

Por un lado, para diseñar e implementar la base de datos BDÁFRICA, hemos realizado un estudio previo de las bases de datos institucionales, científicas y de profesionales del sector elaboradas al respecto, que en ningún caso permiten filtrar por país de origen del autor. Por lo tanto, al presentar dichas fuentes la información de manera sesgada, hemos tenido que aglutinar toda la información y validarla, según los parámetros establecidos, en la base de datos de libros del Ministerio de Educación.

A continuación, hemos determinado unos criterios de diseño bien definidos, estableciendo unos límites diasistemáticos específicos y qué tipos de documentos queremos que formen parte de nuestra base de datos. Estos criterios se concretan en un estricto protocolo de implementación para garantizar que la base de datos sea fiable, completa y de calidad. Y, por último, hemos exportado y publicado BDÁFRICA en URL , de tal modo que sea una BD pública, gratuita y disponible, con el objeto de beneficiar a investigadores y al mercado editorial.

Por otra lado, para dar a conocer la recepción de la literatura poscolonial africana en el mercado editorial español, hemos interrogado la base de datos BDÁFRICA haciendo uso de su potencial analítico univariado o multivariado. El tratamiento estadístico que hemos llevado a cabo con los datos que arroja la BD es inédito hasta el momento, contribuyendo así, a través de datos inéditos y precisos, a dar a conocer desde qué países se traduce, desde qué idiomas, quién traduce, o qué autores se seleccionan, entre otros.

La estancia de investigación que desarrollé en la Universidad de Harvard, en el MetaLAB —un laboratorio de humanidades de referencia que se centra en la presentación de datos complejos usando las tecnologías como el mejor medio para difundir diferentes investigaciones en humanidades y ciencias sociales— me ha permitido conocer otras formas de representación y visualización de los datos.

Hemos ejemplificado el potencial de la base de datos con estadísticas globales y particulares, profundizando en la recepción de la literatura africana anglófona publicada en español en España.

El objetivo final de este trabajo era crear una base de datos consultable y gratuita que ayudara tanto a los investigadores de estudios poscoloniales a arrojar más luz sobre la presencia de este tipo de literatura en nuestro país, como los a profesionales del sector editorial a analizar los datos de la literatura africana publicada en una franja de 42 años en España. A estos últimos les ayudará a configurar el canon de la literatura africana en España, contribuyendo a la diversidad cultural en nuestro país. No obstante, nuestra base de datos no solo pretende contribuir al desarrollo de la cultura, sino que tiene como trasfondo un activismo comprometido que pretende dar a la literatura africana el lugar que merece en la literatura universal.

BETTE: Biblioteca Electrónica Textual del Teatro en Español de la Edad de Plata

Concepción María Jiménez Fernández
Universidad Internacional de la Rioja

José Calvo Tello
Universidad de Würzburg

María Simón Parra
Universidad Internacional de la Rioja

Roxana Martínez Nieto
Universidad Internacional de la Rioja

María García Sánchez
Universidad Internacional de la Rioja

En esta propuesta presentamos el proyecto BETTE (Biblioteca Electrónica Textual del Teatro en Español: 1868-1936), un corpus de obras de teatro de la Edad de Plata codificado en XML-TEI que ha realizado el Grupo de Humanidades y Edición Digital (GHEDI) de la Universidad Internacional de La Rioja (UNIR). El corpus actualmente incluye obras de autores como Galdós, Clarín, Dicenta, Unamuno, Valle-Inclán, Muñoz Seca o García Lorca y estará disponible online como repositorio GitHub. Al mismo tiempo mostraremos los primeros pasos para analizar obras teatrales mediante relaciones sociales de los personajes representadas como grafos.

  1. Punto de partida

Algunos de los primeros y más importantes proyectos de Humanidades Digitales en español han priorizado la edición de obras de teatro en XML, como por ejemplo TESO (Simón Palmer, 1997), Biblioteca digital Arte Lope o Canon 60 (Oleza Simó, 2013 y 2014). De esta manera el Siglo de Oro cuenta con una buena base de textos digitalizados (normalmente solo publicados como HTML). Este género literario está recibiendo una notable atención en los proyectos internacionales de Humanidades Digitales (Trilcke et al. 2015; Glorieux, 2016) por varias razones: por un lado, el género dramático tiene una estructura textual básica más compleja que las novelas (encabezamientos, párrafos y capítulos), por lo que su conversión desde otros lenguajes de marcado como como HTML no resulta tan sencilla. Por otro lado, las obras de teatro presentan ventajas frente a otros de los principales géneros literarios, una vez están estructuradas de manera unívoca: tienen tanto una extensión como una estructura (actos, escenas, paratextos iniciales, acotaciones) muy similar.

En los últimos años diferentes grupos de Humanidades Digitales han centrado sus esfuerzos en digitalizar y analizar la literatura de la Edad de Plata española utilizando diferentes metodologías y géneros textuales. Entre ellos cabe mencionar el grupo de La otra Edad de Plata y el portal de metadatos Mnemosine (Romero-López y Bueren-Gómez-Acebo, 2016), el grupo CLiGS de Estilística computacional del género literario y su Corpus de Novelas de la Edad de Plata (publicada una primera versión en Schöch et al. 2015), o Revistas Culturales 2.0 (Ehrlicher y Rißler-Pipka, 2014). A pesar del interés de grupos de investigación tanto en el teatro como en la Edad de Plata, su intersección quedaba inexplorada a pesar de ser una de las épocas de mayor importancia en la literatura española. Una de las posibles razones puede ser la situación legal en la que muchos de estos autores se encontraban o encuentran. Esta situación ha cambiado drásticamente a comienzos del 2017 al perder sus derechos de explotación autores como Valle, Lorca, Unamuno o Muñoz Seca, entre otros. Nuestro trabajo, por lo tanto, cubre una importante laguna digital en ambos ámbitos: teatro y Edad de Plata. A diferencia de otros proyectos mencionados, los textos en XML-TEI estarán accesibles a los investigadores mediante un repositorio GitHub bajo licencia Creative Commons para el congreso. Compartiendo textos y datos, la investigación en español podrá afrontar los retos y metodologías derivados del concepto de distant reading (Moretti, 2005).

  1. Edición del corpus

En esta primera versión, el corpus contiene 25 obras teatrales en XML-TEI de Lorca, Valle, Muñoz Seca, Echegaray, Unamuno, Valera, Dicenta y Clarín, que hemos citado según el número, de mayor a menor, de textos de cada autor ya editados.

El texto digital proviene de diferentes fuentes, en su mayoría de repositorios como Cervantes Virtual o ePub Libre, o, en algunos casos, obras escaneadas por el grupo. Esos textos digitales fueron convertidos en primer lugar automáticamente mediante expresiones regulares, cuyo resultado fue corregido por miembros del equipo. Cada uno de los documentos se encuentran bien formados y validados con un esquema que describe nuestro conjunto de elementos y atributos TEI. Los miembros del equipo, además, revisan de manera manual algunos aspectos que facilitan el posterior análisis del texto. De esta manera se han identificado cada uno de los personajes que aparecen en todas las obras con un identificador unívoco, referenciando cada vez que el personaje aparece mencionado por nombre propio ya sea como mención en el dramatis personae (castList), como hablante (speaker) o en referencias tanto en acotaciones (stage) o como en el parlamento de otro personaje.

Este paso ha sido realizado sin partir de la idea ingenua de que el dramatis personae incluye todos los personajes, como ocurre en numerosas obras, por ejemplo, de Valle o Lorca. En otro tipo de casos problemáticos (agrupaciones de personajes, cambios de nombre de personajes, etcétera) hemos buscado codificar toda aquella información que no podríamos rescatar automáticamente mediante comparación de cadenas de texto, sino que necesitan de la comprensión semántica, pragmática y filológica de un experto. El grupo se encuentra actualmente cotejando las obras con la primera edición tras la fecha del estreno; el punto exacto de la edición de cada texto puede encontrarse como metadato en el teiHeader. GHEDI está insertando asimismo ciertos metadatos sobre los personajes como ciertos atributos sociológicos (p. ej.: sexo) o su función en la obra (p.ej.: protagonista, coro), un aspecto innovador en la edición de obras teatrales.

Nuestro trabajo no solo se ha centrado en la preparación del texto, sino que también hemos extraído de diferentes fuentes numerosos metadatos que facilitan el análisis de las obras o su interconexión con otros proyectos. En primer lugar, autor y obra han sido identificados siguiendo estándares de instituciones como VIAF o BNE. No solo las fuentes del texto utilizadas (texto digital y texto de cotejo) han sido datadas, también se han recogido las fechas de su primer estreno y de su primera edición.

A pesar de que en comparación con otras colecciones similares BETTE tiene por ahora un volumen de obras modesto, en paralelo a la edición de estas obras el grupo ha realizado una importante actividad de formación interna, desarrollo de documentación y diseño de flujo de trabajo, sin que hubiese por ahora ningún proyecto de investigación que lo financiase. Los textos se encuentran en un repositorio en GitHub que estará disponible para la comunidad investigadora antes del congreso bajo licencias Creative Commons. De esta manera ponemos a disposición un canal flexible, con un control de versiones sólido que permite el diálogo.

  1. Aplicaciones y desarrollo futuro

Xavier Agenjo pedía hace un par de años (2015) que la comunidad investigadora hispánica asumiese XML-TEI como estándar de edición. Aunque desde entonces han aparecido nuevas colecciones de textos en español, creemos que todavía es útil recordar las ventajas que una edición digital en un lenguaje de marcado estándar para ediciones filológicas aporta: un marcado semántico estándar con documentación propia, mayores posibilidades de búsqueda, aplicación directa de tecnologías estándares como CSS (visualización), xPath (interrogación) o XSLT (transformación) para su visualización o conversión, posibilidad de uso en herramientas generalistas (navegadores) o específicas de las Humanidades Digitales (p.ej: Voyant Tool), facilitar la reutilización por parte de otros proyectos, etcétera.

Igualmente pueden extraerse ciertas relaciones desarrollando programas propios que recojan cierta información y la representen en un modelo diferente. Por ejemplo, la interacción entre personajes dentro de ciertas unidades textuales como escenas puede ser representada como una red social en un grafo. Esta idea, originada en los años 70 por el matemático Solomon Marcus, es seguida actualmente por diferentes investigadores como Trilcke et al. (2015) o Glorieux (2016), entre otros.

Siguiendo esa línea de investigación, el grupo se encuentra actualmente estudiando las posibilidades de análisis de representar las relaciones de personajes y evaluar los resultados específicos de grafos (como grado, clusters, centralidad, etcétera) con los metadatos de personajes que poseemos. También nos encontramos actualmente explorando la posibilidad de utilizar los mismos conceptos de escenas y personajes en el sentido contrario al hasta ahora visto y representar las escenas como nodos unidos por aristas cuando comparten personajes.

BETTE resulta un conjunto de textos y datos abierto a la comunidad investigadora con numerosas posibilidades de análisis, entre ellos la innovación de la presentación del texto para su lectura, el análisis de aspectos lingüísticos de los parlamentos, etcétera. Entre nuestros objetivos están continuar ampliando el corpus, modelar e introducir nuevos metadatos tanto del texto como de los personajes y explorar las posibilidades de análisis de los grafos aplicados a este género textual. Con nuestra presentación en el congreso buscamos tanto las reacciones y sugerencias de los colegas, así como nuevas posibilidades de colaboración con instituciones y grupos de investigación.

De las exhumaciones de fosas comunes a las Humanidades Digitales

Francisco Ferrándiz
Instituto de Lengua, Literatura y Antropología, Centro de Ciencias Humanas y Sociales, CSIC

Carlos Fernández Freire
Unidad de Sistemas de Información Geográfica, Centro de Ciencias Humanas y Sociales, CSIC

 Zoé de Kerangat
Instituto de Lengua, Literatura y Antropología, Centro de Ciencias Humanas y Sociales, CSIC

 Ernesto Salas Tovar
Unidad de Sistemas de Información Geográfica, Centro de Ciencias Humanas y Sociales, CSIC

Palabras Clave: Bases de Datos,  Modelización, UML, Guerra Civil, Fosas comunes, Memoria Histórica, Derecho Humanos
Keywords: Databases, Modelling, UML, Spanish Civil War, Mass Graves, Historical Memory, Human Rights

El proyecto que se presenta está centrado en el estudio pormenorizado de las exhumaciones de fosas comunes de la Guerra Civil (1936-1939) en España desde el año 2000 (Ferrándiz, 2013; 2014). Se trata de un proyecto financiado por varios proyectos del Plan Nacional de I+D+i (CSO2009-09681; CSO2012-37209; CSO2015-66104-R), así como un proyecto H2020 (UNREST, Ref. 693523; ver  <http://www.politicasdelamemoria.org/> y <http://www.unrest.eu/>). Tiene dos vertientes. Por un lado, la investigación de las fosas comunes exhumadas desde el año 2000, caracterizadas por la presencia de equipos técnicos y un importante impacto político y mediático. El equipo de investigación ha seguido de manera pormenorizada las excavaciones que empezaron en el año 2000, llevando a cabo una investigación integral del proceso en distintos escenarios de investigación (exhumaciones, laboratorios forenses, ceremonias de devolución, actos memoriales, etcétera). Para la mejor comprensión del proceso, desde sus orígenes el equipo de investigación ha incorporado especialistas en procesos semejantes en otros lugares del mundo (Argentina, Chile, Guatemala, México, Bosnia, Polonia, Rusia, Vietnam, Timor, etcétera).

Por otro, el proyecto está desarrollando una investigación histórica sobre otros procesos de exhumación anteriores a la fase que comenzó en el año 2000 en España. Es a esta segunda línea de investigación diacrónica a la que va dirigida la primera fase relacionada con las Humanidades Digitales. La base de datos abarcar tres periodos anteriores al año 2000, cada uno de ellos objeto de una tesis doctoral en curso, encuadradas dentro del proyecto: (a) las exhumaciones que se llevaron a cabo en la postguerra, impulsadas por la dictadura en el marco de la construcción política e ideológica del nuevo régimen tras el conflicto;  (b) las exhumaciones que se llevaron a cabo en relación con la inauguración del Valle de los Caídos a partir de 1959, veinte años después de la guerra, que involucraron el movimiento de más de 30.000 cuerpos hacia las criptas del monumento; y (c) las exhumaciones de fosas comunes republicanas llevadas a cabo por familiares en contextos locales, tras la muerte de Franco en 1975, de una escala también importante pero llevadas a cabo con escaso apoyo institucional o técnico (de Kerangat, 2017). Cada periodo de exhumaciones tiene sus características diferenciales, sus propios actores sociales, sus cadáveres predilectos, sus marcos políticos e ideológicos diferenciados y sus propias condiciones técnicas. El modelo de datos ha sido diseñado para incorporar toda la casuística conocida.

Se trata por lo tanto de un ambicioso proceso de recopilación y sistematización de datos referentes al patrimonio y memorialización del conflicto en el caso de la Guerra Civil Española: víctimas, fosas comunes, exhumaciones, restos materiales recuperados, procesos de memorialización y diferentes actores implicados en estos procesos, tanto institucionales como privados.

Un Sistema de Información centralizará de la manera más completa posible, la información de las exhumaciones de fosas relacionadas con el conflicto español, especialmente de aquéllas que tuvieron lugar antes del año 2000, que no fueron realizadas en un contexto profesionalizado. Además, se prevé la sistematización de gran cantidad de material gráfico y documental relacionado.

La puesta en marcha de un proyecto de Humanidades Digitales de esta naturaleza requiere abordar una sistematización de lo que en el ámbito del modelado de datos se denomina el Universo de Discurso, la parte del mundo real que queremos representar (Flanders y Jannidis, 2015: 11). El proceso de modelado supone identificar las entidades relevantes del universo de discurso y describir sus principales rasgos y conexiones. Para ello hemos emprendido un proceso de trabajo conjunto entre el grupo de investigación Las políticas de la memoria  y la unidad de Sistemas de Información Geográfica SIG del Centro de Ciencias humanas y Sociales (CCHS) del CSIC con el fin de elaborar un modelo de datos en lenguaje UML (Unified Modeling Language) que recoja todas las posibles relaciones y propiedades de esta información, permitiendo que la extensiva recopilación de datos, ya en curso, constituya el soporte de consultas y análisis espaciales y temporales que nos ayuden a comprender la forma en la que se construyen los espacios de memoria en este caso de estudio.

La implementación del diagrama de clases UML que describe nuestro universo de discurso se ha realizado a través de un modelo Entidad-Relación, desplegado en un Sistema Gestor de Bases de Datos de software libre, PostgreSQL y la extensión espacial PostGIS. La estructura de base de datos relacional nos ofrece la potencia analítica de las consultas SQL, junto con la posibilidad de integración en Sistemas de Información Geográfica para el análisis espacial y la generación de productos cartográficos.

Este potencial se extiende también al desarrollo de diferentes formas de acceso y reutilización de toda la información generada a lo largo del proyecto, por parte de otros investigadores o de un público más general. Gracias al carácter georreferenciado de parte de la información, podremos plantear la generación de servicios web de mapas que cumplan con la normativa y estandarización propias del mundo de la cartografía digital (en particular acorde con las especificaciones del Open Geospatial Consortium), además de otro tipo de accesos aún por determinar, siendo siempre cuidadosos con la protección de datos que exige el trabajo con información de carácter personal.

Esperamos concluir el desarrollo de este proyecto con la puesta en marcha de una plataforma abierta a la comunidad investigadora y al público en general para el análisis de la información relativa a las políticas de la memoria de la Guerra Civil Española.

Bibliografía

FERRÁNDIZ, Francisco (2013), «Exhuming the Defeated. Civil War Mass Grave Exhumations in 21st-Century Spain», American Ethnologist, n.º 40(1), pp. 38-54.

FERRÁNDIZ, Francisco (2014), El pasado bajo tierra: Exhumaciones contemporáneas de la Guerra Civil, Barcelona, Anthropos.

FLANDERS, Julia and JANNIDIS, Fotis (2015), «Knowledge Organization and Data Modeling in the Humanities». En: tamodeling.pdf> (Fecha de consulta: 11-07-2017).

DE KERANGAT, Zoé (2017) [Capítulo en prensa] «Beyond Local Memories: Exhumations of Francoism’s Victims as Counter-Discourse during the Spanish Transition to Democracy», en TÖRNQUIST-PLEWA, Barbara and SINDBÆK ANDERSEN, Tea (eds.), The Twentieth Century in European Memory: Transcultural Mediation and Reception, Leiden, Brill, pp. 104–21.

La archivística en los proyectos de humanidades digitales: el proyecto Aldicam-cm

Isabel Portela Filgueiras
Universidad Complutense de Madrid

Susana María Ramírez Martín
Universidad Complutense de Madrid

Palabras clave: Archivos, Paleografía, Transcripción de documentos
Keywords: Archives, Palaeography, Transcription of documents

  1. Introducción

ALDICAM-CM es el acrónimo de Atlas Lingüístico Diacrónico e Interactivo de la Comunidad de Madrid. Este proyecto está financiado por la Comunidad de Madrid y el Fondo Social Europeo y su duración es de tres años (enero 2016-diciembre 2019).
Es este un proyecto interdisciplinar, ya que para llevarlo a cabo exige la participación de paleógrafos y archiveros e historiadores de la lengua y de la cultura general, de la historia de la escritura, y tecnólogos especializados en humanidades digitales. . En consecuencia, está formado por un equipo multidisciplinar de diez y seis investigadores pertenecientes a cinco instituciones docentes y de investigación: Universidad de Alcalá de Henares, Consejo Superior de Investigaciones Científicas, Universidad Complutense, Universidad de Granada y la Universidad Nacional de Educación a Distancia.

El objetivo que se plantea es elaborar un mapa diacrónico dinámico de las particularidades lingüísticas de la Comunidad de Madrid basándose en documentos de archivo de los siglos XIII al XIX. El proyecto que estamos desarrollando continúa y utiliza la misma metodología que otro anterior . El proyecto ALDICAM-CM exige el desarrollo de tres ejes de trabajo: la transcripción paleográfica, la presentación crítica y el tratamiento de la imagen del documento. Estas tres dimensiones son complementarias y necesarias para el estudio de un documento en su integridad, dándonos una imagen del soporte y facilitando la lectura de la información.

  1. La identificación de los fondos documentales

El archivero es el responsable de la selección de los fondos documentales sobre los que se va a intervenir. Para ello se han recorrido hasta el momento más de treinta archivos de instituciones públicas y privadas que conservan documentos tanto de personas físicas como de personas jurídicas. Además del Archivo de Villa y del Archivo Regional, se han consultado los fondos de los archivos municipales (Parla, El Escorial, Chinchón, Getafe, Moralzarzal, Arganda del Rey…) y de instituciones que por su valor histórico conservan documentos que son significativos para el estudio de la lengua de Madrid (Hospital de San José de Getafe). El papel del archivero es fundamental en el proceso de localización de las fuentes. Para la realización de esta función podemos singularizar tres actividades:

  1. Identificar los documentos «es una operación de tipo intelectual que constituye la primera fase de la metodología archivística» (La Torre, 2000: 14). Para ello es necesario establecer unos criterios de selección. Tras varias reuniones, decidimos que se preferirían los documentos personales de gente humilde que no tiene un dominio pleno de la escritura y, que, a nuestro criterio, reflejan mejor la lengua popular.
  2. Determinar las instituciones que los han producido. Hay que tener en cuenta que la historia de las instituciones configura sus archivos. «La aplicación del principio de procedencia garantiza la integridad administrativa de un fondo y su pleno valor de testimonio» (Mendo, 2004: 38). Las organizaciones con el paso del tiempo pueden variar sus funciones, pueden cambiar de ubicación, cambian o modifican su denominación e incluso pueden modificar su organización administrativa. De ahí la importancia de esta información para conocer quién posee los fondos documentales y dónde se conservan.
  3. Localizar los archivos que custodian estos documentos. Esta tarea no es fácil por el desconocimiento y por la dispersión que en muchos casos sufren los fondos como consecuencia de los cambios en su dependencia administrativa. Además, no todos los archivos tienen los mismos criterios de acceso a los documentos. «Los archivos no son simplemente almacenes de la memoria, sino que ofrecen la posibilidad de crear memoria» (Menne-Haritz, 2001: 59).
  1. Modos y maneras de transcribir

Para que las transcripciones que se realicen sean una fuente fiable de información es necesaria una normalización rigurosa de las mismas desde el punto de vista paleográfico y crítico. Tanto para la descripción paleográfica como para la descripción crítica hemos seguido los criterios CHARTA. La red CHARTA reúne a investigadores que se comprometen a editar sus textos siguiendo los criterios propuestos por la red con el fin de normalizar y crear un corpus de textos y documentos antiguos de los siglos XII al XIX de España e Hispanoamérica .
Además de la edición facsímil de los documentos, como ya hemos dicho, se hacen dos tipos de transcripciones: paleográfica y crítica. La transcripción paleográfica se realiza respetando en lo posible la grafía original del documento y la trascripción crítica facilita la lectura, siguiendo el criterio gramatical actual. Al final del proyecto, la base de datos de ALDICAM- CM tendrá aproximadamente un total de 1.500 documentos que seguirán la misma ficha de descripción. En este instrumento de descripción se han definido los siguientes campos:

  1. Número correlativo de ingreso que servirá para
  2. identificar el documento y su futura citación
  3. Fecha
  4. Localidad
  5. Archivo y signatura
  6. Resumen indicativo del contenido del
  7. Documento
  8. Ámbito de emisión al que se adscribe el documento (judicial, económico, administrativo, eclesiástico, notarial, privado…)
  9. Tipología documental
  10. Materia

La normalización facilitará el intercambio de los datos y la búsqueda y recuperación de la información. El proyecto se complementa con la localización en un mapa interactivo y dinámico que permita visualizar la localización espacial de los usos lingüísticos de los términos contenidos en los documentos. Además de la visualización la plataforma tendrá un buscador a texto libre que permitirá también la recuperación de los registros con información.

  1. Fuentes para otras disciplinas

Los resultados de este proyecto trascienden los objetivos con los que fue concebido, ya que permitirá que estos textos analizados y transcritos sirvan para futuras investigaciones. Algunas de las líneas de investigación posibles son:

– Estudios de la historia de la lengua y la geografía lingüística. Estudio de la sintaxis y del léxico. Análisis de las variantes fonéticas de las palabras en un territorio a lo largo del tiempo. Modismos madrileños en el uso de los términos.

– Investigaciones sobre la historia y uso de la escritura. Análisis de las variantes gráficas.

  • Estudios de paleografía y diplomática. Análisis de tipologías documentales.
  • Además de los estudios relacionados con la información que contienen los documentos (economía, medicina, justicia, orden público…), se pueden realizar investigaciones sobre Historia de las mentalidades e Historia de la vida privada.
  • Investigaciones relacionadas con la geografía física. Estudio de los topónimos y su localización en el espacio.
  • Estudios de Antropología cultural y Etnografía. Temas relacionados con usos y costumbres, dietas, comportamientos, hábitos…

 

Financiación

Esta investigación se enmarca dentro del proyecto ALDICAM-CM (S2015/HUM-3443) y sus autoras pertenecen al Grupo de investigación SCRINIUM (Universidad Complutense de Madrid).

Bibliografía

MENDO CARMONA, Concepción (2004), «Consideraciones sobre el método en archivística», Documenta & Instrumenta, n.º 1, pp. 35-46.

LA TORRE MERINO, José Luis & MARTÍN-PALOMINO BENITO, Mercedes (2003), Metodología para la identificación y valoración de fondos documentales, Madrid, Ministerio de Educación, Cultura y Deporte, Subdirección General de Información y Publicaciones.

MENNE-HARITZ, Angelika (2001), «Access-the reformulation of an archival paradigm», Archival Science, n.º 1, pp. 57-82.

Bib-ACMé – Bibliografía digital de novelas argentinas, cubanas y mexicanas (1830-1910)

Ulrike Henny-Krahmer
Universität Würzburg

Palabras clave: bibliografía, corpus, TEI, eXist, visualización
Keywords: bibliography, corpus, TEI, eXist, visualization

1. Introducción y problemática

La Bibliografía digital de novelas argentinas, cubanas y mexicanas (Bib-ACMé) está constituida por un repositorio Git[1] de libre acceso que contiene todos los datos básicos de la bibliografía en TEI así como el código fuente de la aplicación web. El sitio web correspondiente[2] permite hacer búsquedas de autores, obras y ediciones según diferentes criterios, así como ver visualizaciones de los datos y descargar los archivos TEI.

La bibliografía forma parte del proyecto de tesis doctoral de la autora en el que se examinan el estilo y los temas de novelas hispanoamericanas del siglo XIX. Este proyecto se realiza a su vez en el contexto del proyecto Estilística del género literario asistida por ordenador (CLiGS)[3], de modo que emplea una metodología digital y cuantitativa, basada en textos digitales procesables, además de herramientas y análisis computacionales. La base de la tesis es un corpus de aproximadamente 200 novelas procedentes de tres países hispanoamericanos (Argentina, Cuba y México) escogidas para considerar diferentes contextos políticos y culturales, y abarcando el período desde 1830 hasta 1910 (v. fig. 1).

Image and video hosting by TinyPic
Figura  1  Novelas en el corpus

En todos los análisis cuantitativos, es de una gran importancia que los datos que se utilizan en el experimento sean seleccionados adecuadamente. Por ejemplo, para sacar conclusiones razonables tras analizar la evolución de los temas en las novelas del siglo XIX, es necesario tener todas las novelas que se escribieron o publicaron en este período (lo que en estadística se conoce como «población» o «universo»), o bien trabajar con un muestreo representativo. Aun en este segundo caso, es preciso contar con una visión general de la composición y de las características del «universo» para poder decidir si un muestreo es representativo o no.

2. Estado de la cuestión

Respecto al conjunto de novelas publicadas en Argentina, Cuba y México en el siglo XIX, es posible obtener una comprensión básica del «universo» mediante informaciones bibliográficas. Afortunadamente, se han llevado a cabo investigaciones minuciosas y exhaustivas en estas áreas. Cabe mencionar sobre todo la bibliografía de novelas argentinas de Lichtblau (Lichtblau, 1997), los ocho tomos de la Bibliografía Cubana del Siglo XIX de Trelles (Trelles, 1911-1915) y la Bibliografía de novelistas mexicanos de Iguiniz (Iguiniz, 1926). Desafortunadamente, estos recursos son libros impresos que no permiten determinar de manera automática cuántas novelas se publicaron por qué autor, cuándo ni dónde. Además, cada bibliografía se ha creado siguiendo diferentes intereses y criterios de selección. La de Lichtblau, por ejemplo, incluye también novelas publicadas únicamente en revistas literarias y periódicos, mientras que la de Iguiniz tiende a incluir sólo publicaciones independientes pero también libros de cuentos y narraciones que no son necesariamente novelas. La bibliografía de Trelles reúne todas las publicaciones de la época y no sólo textos literarios.

El formato impreso no permite realizar selecciones concretas de las entradas bibliográficas según los propios intereses, a no ser que se quieran realizar manualmente. Por otro lado, también existen recursos digitales. Por ejemplo, la Biblioteca Virtual Miguel de Cervantes cuenta con una versión electrónica del Diccionario de la literatura cubana (DLC), pero es sólo un texto impreso digitalizado sin opciones para buscar o filtrar las informaciones sistemáticamente. Otro ejemplo es la Enciclopedia de Literatura en México (ELeM) que ofrece más posibilidades de búsqueda. No obstante, ninguno de estos dos recursos (ELeM y DLC) es tan completo como las bibliografías impresas.

3. Datos y metodologías

De acuerdo con los fines del trabajo de doctorado, la autora selecciona la información encontrada en bibliografías existentes de novelas argentinas, cubanas y mexicanas y las codifica electrónicamente para hacer posible una visión general de las novelas que se publicaron entre 1830 y 1910 dentro de este ámbito geográfico y cultural.

Los datos provenientes de las bibliografías impresas se seleccionan según criterios específicos que corresponden a los criterios de selección para los textos incluidos en el corpus de la tesis doctoral en preparación. Así por «novela» se entiende una obra literaria narrativa escrita predominantemente en prosa y de una cierta extensión. Siguiendo los límites extensivos de Mata, se considera novela un texto con un mínimo de 35 000 palabras. Textos con una extensión de entre 5 000 y 35 000 palabras se consideran «novelas cortas» (Mata, 1999). Las novelas cortas también forman parte de esta bibliografía. El número de palabras sólo se toma en cuenta en los casos en que el texto esté disponible en full text. En los otros casos, se toma en cuenta si la obra está calificada como novela en el título o subtítulo de las ediciones, y si se considera novela por estudiosos de literatura. Sólo se incluyen obras que fueron publicadas entre 1830 y 1910. Más concretamente, por un lado se descartan las obras que quedaron inéditas hasta 1910 y, por otro lado, se excluye recabar información sobre ediciones posteriores a este año. Las novelas inacabadas tampoco se tienen en cuenta. La bibliografía sólo contiene novelas escritas en español, ninguna traducción al español ni novelas escritas en otros idiomas. Finalmente, por novela argentina, cubana y mexicana se entienden obras escritas por autores de estas nacionalidades o bien con tales orígenes, así como obras publicadas en dichos países.

Las informaciones se codifican en TEI, siguiendo las P5: Guidelines for Electronic Text Encoding and Interchange, particularmente el capítulo 3.11 Bibliographic Citations and References. El modelo de datos de Bib-ACMé se centra en las nociones de «autor», «obra» y «edición». Siguiendo los Requerimientos funcionales para registros bibliográficos (FRBR), un «autor» es la persona responsable del contenido intelectual o artístico de una novela. La «obra» es el producto de la creación intelectual o artística. En FRBR aparecen también los conceptos «expresión» («la realización intelectual o artística de una obra»), «manifestación» («la materialización física de la expresión de una obra») y «ejemplar» («un ejemplar determinado de una manifestación», IFLA, 2016: 31-35). Lo que en Bib-ACMé se denomina «edición» corresponde a una «expresión» en el sentido de que cada realización nueva de una obra que se publica se registra como una edición separada. Pero el concepto de edición aquí utilizado corresponde también a una «manifestación» en cuanto a que una nueva tirada de la publicación de una obra se registra igualmente como edición. Se ha creado un fichero TEI para cada tipo de entidad (autor, obra, edición) en el que se reúnen los datos relevantes. Mediante identificadores exclusivos, las entidades se relacionan entre sí: un autor con todas las obras (aquí: novelas) que escribió y una obra con todas las ediciones registradas. A partir de la base de datos creada y utilizando tecnologías XML, la autora ha desarrollado la aplicación Bib-ACMé que se presenta con esta propuesta.

4. Resultados y conclusiones

Hasta ahora, Bib-ACMé contiene 434 autores, 1.138 obras y 1.613 ediciones, lo que representa aproximadamente el 80 % de la información accesible en las bibliografías impresas pero ya casi seis veces más de lo que está en el corpus de novelas mencionado arriba. En la figura 2, se muestra la distribución de novelas por décadas. Para cada novela, el año considerado corresponde a la fecha de publicación de la primera edición de la obra.

Con las dos series de barras, se comparan los números de novelas en el corpus con los de la bibliografía y se calcula la cuota que el corpus alcanza en cada década. La década más próxima al «universo» en su estado actual es la de 1841-1850 con 34 %, mientras que la década más alejada es la de 1830-1840 con 7.3 %. Si se quiere analizar la evolución de las novelas por décadas, sería oportuno ajustar el número de novelas en el corpus al «universo» para obtener una cuota constante. De hecho, para alcanzar un corpus representativo, sería necesario considerar no sólo las décadas de publicación, sino también otras dimensiones relevantes para el estilo de los textos, como son el sexo de los autores, los subgéneros novelescos, la perspectiva narrativa, etc. Además, la extracción de cantidades proporcionales es solo uno de los procedimientos posibles para crear un muestreo (véase Biber, 1993). También es necesario completar las informaciones bibliográficas lo que está previsto para antes del congreso.

El escenario señalado de comparar un corpus determinado con un conjunto de entidades bibliográficas es sólo uno de los motivos significativos para una bibliografía digital. La base de datos de Bib-ACMé permite analizar el conjunto de entidades bibliográficas desde todas las perspectivas que se han codificado en TEI. Se puede analizar, por ejemplo, el número de ediciones de cada obra y su distribución temporal, los lugares de publicación de las ediciones o la procedencia de los autores, entre otros. Algunos de los análisis mencionados ya se han realizado en la página web de Bib-ACMé. Finalmente, una tarea provechosa para el futuro pero fuera del ámbito de este proyecto sería elaborar un workflow para automatizar la digitalización de bibliografías impresas, la extracción de las informaciones bibliográficas relevantes y su conversión a TEI.

Image and video hosting by TinyPic
Figura 2 Novelas en el corpus y en la bibliografía

El escenario señalado de comparar un corpus determinado con un conjunto de entidades bibliográficas es sólo uno de los motivos significativos para una bibliografía digital. La base de datos de Bib-ACMé permite analizar el conjunto de entidades bibliográficas desde todas las perspectivas que se han codificado en TEI. Se puede analizar, por ejemplo, el número de ediciones de cada obra y su distribución temporal, los lugares de publicación de las ediciones o la procedencia de los autores, entre otros. Algunos de los análisis mencionados ya se han realizado en la página web de Bib-ACMé. Finalmente, una tarea provechosa para el futuro, pero fuera del ámbito de este proyecto sería elaborar un workflow para automatizar la digitalización de bibliografías impresas, la extracción de las informaciones bibliográficas relevantes y su conversión a TEI.

Financiación

Esta investigación fue financiada por el Ministerio Federal de Educación e Investigación Alemán (BMBF) bajo el identificador 01UG1508.

Bibliografía

BIBER, Douglas (1993), «Representativeness in Corpus Design», Literary and Linguistic Computing, vol. 8, n.º 4, pp. 243-257.

Enciclopedia de la Literatura en México (ELeM). En: (Fecha de consulta: 13-07-2017).

IGUINIZ, Juan B. (1926), Bibliografía de novelistas mexicanos: ensayo biográfico, bibliográfico y crítico, México, Imprenta de la Secretaría de relaciones exteriores.

Diccionario de la literatura cubana (DLC). En: (Fecha de consulta: 13-07-2017).

LICHTBLAU, Myron (1997), The Argentine Novel: an annotated bibliography, Lanham, Maryland, Scarecrow Press.

MATA, Óscar (1999), La novela corta mexicana en el siglo XIX, México, Universidad Nacional Autónoma de México.

IFLA (2016), Requisitos Funcionales de los Registros Bibliográficos: informe final. Traducción española de Xavier Agenjo y María Luisa Martínez-Conde. Traducción actualizada por María Violeta Bertolini y Elena Escolano. International Federation of Library Associations and Institutions, Den Haag.

P5: Guidelines for Electronic Text Encoding and Interchange. Version 3.2.0. En: (Fecha de consulta: 13-07-2017).

TRELLES, Carlos (1911-1915), Bibliografía Cubana del Siglo XIX, Matanzas, Imprenta de Quirós y Estrada.

[1] (Fecha de consulta: 13-07-2017).

[2] (Fecha de consulta: 13-07-2017).

[3] (Fecha de consulta: 13-07-2017).

Creación de un Archivo Español de Media Art/ Spanish Archive of Media Art

Juan Alonso López Iniesta
Universidad Rey Juan Carlos

La presente propuesta de comunicación tiene como fin dar a conocer un subproyecto de investigación seleccionado y financiado por el Ministerio de Economía y Competitividad (MINECO) en su Convocatoria Proyectos I+D+I Excelencia 2016, siendo su Investigadora Principal Dª Ana Navarrete Tudela.

Se plantea desde el desarrollo, hitos y resultados de dos proyectos de investigación, coincidentes en la tipología de sus objetos de investigación, metodología y resultados:

  1. La creación, puesta en funcionamiento y difusión de las CAAC (Colecciones y Archivos de Arte Contemporáneo de la Facultad de Bellas Artes de Cuenca, UCLM)
  2. La catalogación y digitalización del fondo documental de Espacio P para contribuir al estudio de la aportación de los artistas a la institucionalización del arte contemporáneo y el papel de las nuevas prácticas artísticas (performance, video y arte electrónico). Ambos proyectos se inscriben en el marco conceptual del denominado Media Art, entendido como una convergencia entre los medios de comunicación e información y las artes visuales.

La naturaleza de ambos proyectos, digitalización y catalogación de las colecciones implica necesariamente su preservación en el contexto de una continuidad digital, entendida en una doble dimensión: la propia conservación de los productos artísticos como objetos digitales museísticos, así como de los propios medios web que construyeron este objeto artístico digital. Surge la convergencia y coordinación necesarias con la Documentación, principio, desarrollo y objetivo del presente proyecto. Se definirán los protocolos y estándares normalizados para una digitalización de las colecciones, garantía de preservación digital, una catalogación web que permita otorgar a las colecciones etiquetas semánticas y metadatos capaces de representar el contenido digital e icónico de las colecciones, para su interoperabilidad con otros vocabularios, su reutilización mediante los metadatos y ser un instrumento científico para científicos.

Estas funcionalidades son posibles si están soportadas por un “vocabulario”, un lenguaje documental, muy coherente, un tesauro específico, cuyos elementos esenciales o descriptores, emanen de los metadatos y etiquetas de las colecciones, sea editado mediante un software apropiado capaz de gestionar estos descriptores e imágenes, auxiliar un OPAC Web, generar, actualizar y dinamizar un repositorio digital de las colecciones, con soporte a Linked Open data, adaptarse a dispositivos móviles y lograr plena difusión por vinculación a Europeana.

Se apuntan los resultados y aplicaciones más inmediatas del proyecto:

  1. La creación de una Red Española de Archivos y Colecciones de Media Art, como espacio digital y virtual de convergencia para una cooperación en su tratamiento, preservación y difusión mediante el soporte de instrumentos técnicos informáticos y documentales, con una vocación de internacionalización europea e iberoamericana
  2. Servicio a la Sociedad del conocimiento, mediante el planteamiento y diseño de programas competenciales en el marco de la emergente disciplina Metaliteracy, con sus instrumentos, materiales y sistema de evaluación para obtener conocimiento desde la información icónica y digital
  3. Fomento y desarrollo a la economía digital por aplicación para el «turismo de conocimiento» por planificación de actividades vinculadas al Media Art
  4. Un impulso hacia la Museografía Web, más que la réplica digitalizada de la muestra presencial, con elementos que faciliten una mayor comprensión de la propuesta artística al espectador y animen su participación activa, no solo como interacción, sino como verdadero acceso a los contenidos y a la co-creación, incorporándole como agente activo en la realidad social y cultural.
  1. El subproyecto AEMA (Archivo Español de Media Art). UCLM

El objetivo principal del subproyecto es la creación de un Archivo Español de Media Art/ Spanish Archive of Media Art.Aceptamos por consenso el término Media Art. La adscripción a conceptos anglosajones de difícil traducción nos genera un problema permanente en el campo de las artes visuales, utilizar el término Media Art nos obliga a traducirlo en español por: Arte de los medios o Arte y tecnología o Arte interactivo. Pero en el contexto anglosajón significa «algo más»: el concepto media habla de los medios de comunicación y de información, y se puso en circulación como herramienta crítica hacia el protagonismo que alcanzaron los mass-media como herramienta de comunicación principal. «Durante el periodo de las guerras mundiales, la noción se articuló entorno a los medios organizados de difusión y transmisión, denominados entonces «medios de masas», de los que la imprenta se consideró uno de los primeros ejemplos.

Mientras la propia noción de comunicación cambiaba de signo hacia la información gracias a las teorías matemáticas de la comunicación como la Cibernética de Nobert Wiener o la Teoría de la Información de Shanon y Weaber, las nuevas tecnologías configuraban un panorama en el que los media cobraban cada vez un mayor protagonismo social y económico. A partir de la década de los 60 y 70, el término se cargó de nuevos significados a partir de las aproximaciones críticas al hecho televisivo, el desarrollo del vídeo y el auge de la mediación, especialmente a partir de las aportaciones de teóricos como McLuhan. Por tanto, en base a esa relación intrínseca entre tecnología y la comunicación, entendemos que los medios de comunicación incluyen las formas de comunicación impresas, las formas de grabación y reproducción audiovisual, el cine, la telefonía, la radio, la televisión e Internet, cada una de ellas articuladas entorno a diferentes medios (herramientas, mecanismos, aparatos y tecnologías) mediante las que se hace efectiva esa comunicación.»

«A comienzos del siglo XXI, el panorama creativo, en su idilio cada vez más acentuado y obsesivo con la tecnología de última generación, ha cambiado significativamente. Ahora la última Revolución Científica se ha basado en modelos de producción y percepción que poco tienen que ver con la cultura mediática que dominara buena parte del siglo XX. Los mass media han dejado de ejercer su papel hegemónico como paradigmas de percepción de la realidad. Ahora se impone un nuevo medio de representación -el digital- que ya no se va a basar exclusivamente en la imagen de registro, y en su captura con la cámara, sino que va a utilizar una combinación híbrida entre los medios clásicos de representación (pintura, escultura, dibujo, ilustración, tipografía) y los mass media (fotografía, cine, televisión y vídeo).»

Así un producto de este ámbito se sitúa en un cruce, un arte-medio entre los medios de comunicación e información y las artes visuales. Muchos de los conceptos que utilizamos pueden ser reduccionistas; la pintura o la escultura son medios de expresión artística, pero también los medios de comunicación: el cine, la televisión, la radio, el vídeo… son medios y/o herramientas de comunicación artística.

Entre los medios de comunicación también están los medios impresos y aquí en el campo específico del arte toman forma el Arte postal / Mail Art, Arte conceptual y la poesía visual.

Bibliografía

GÓMEZ, Marisa, «¿Qué es el New Media Art? Una Aproximación terminológica». En: <http://interartive.org/2012/04/new-media-art-termino/#sthash.8GleEPOQ.dpuf>.

GÓMEZ ISLA, José, «Determinismo Tecnológico Y Creación Contemporánea». En:

Constructing digital knowledge networks supported by semantic annotations on the example of APIS and exploreAT!

Katalin Lejtovicz
Austrian Centre for Digital Humanities

Amelie Dorn
Austrian Centre for Digital Humanities

Palabras clave: Vinculación de entidades, Datos enlazados abiertos, Enriquecimiento semántico, Humanidades digitales
Keywords: Entity Linking, Linked Open Data, Semantic Enrichment, Digital Humanities

The wide array of digital tools developed during recent years has opened a plethora of new ways how we can access, analyse and link various kinds of data. Many of the currently ongoing Digital Humanities projects are facing the same kind of challenges in that unique or valuable information is embedded in different resources, but due to automatic processing procedures not being applied, the possible connections between the different resources are rarely unfolded and exploited to reveal a potential new knowledge network. In many projects dealing with digital collections, a comprehensive amount of digital content is generated from scanned books, dictionaries, maps, etc. originating from various language resources, different sociological and cultural resources, or different time periods. In order to make such data, otherwise neglected or lost, more widely available in a broader network, including the public, scholars, industry partners or heritage institutions, the enrichment with Linked Open Data[1] (LOD) is inevitable. Europeana[2] in the Digital Humanities domain is such a pioneer community, initiating not only to integrate cultural heritage data from museums, galleries and archives all over Europe, but also to enrich their metadata by automatically linking unstructured content to LOD vocabularies, such as DBpedia[3] and GeoNames[4].

In this paper we aim to illustrate with the example of two distinct data sets, ÖBL (Austrian Biographical Dictionary) and DBÖ (Database of Bavarian Dialects in Austria), how the same semantic enrichment method using Apache Stanbol[5], an open source software stack, applied across these two very differently structured data sets, enables the process of revealing and connecting unique and valuable knowledge, untangling similar entities in seemingly unrelated resources. We exemplify the semantic enrichment procedure and how it interlinks the ÖBL and DBÖ by identifying the common entities and creating links between them via common reference resources.

The ÖBL (Österreichisches Biographisches Lexikon 1815-1950/Austrian Biographical Dictionary 1815-1950) is a dictionary containing around 18.500 biographies documenting the lives of outstanding personalities from the Austro-Hungarian Monarchy. It contains a large amount of place names that can be enriched with useful information from vocabularies (e.g. locations with latitude, longitude, parent country, population). The DBÖ (Datenbank der Bairischen Mundarten in Österreich/Database of Bavarian Dialects in Austria) is a 20th century non-standard German language resource covering the region of the former Austro-Hungarian Empire. It comprises of a collection of dialect words (~3.5 million single records) originating from questionnaires, folklore literature and vernacular dictionaries which was originally collected for dictionary making.

Both resources are embedded in larger Digital Humanities projects: «APIS» (Austrian Prosopographical Information System), a system built to collect, curate, enrich and analyze biographical data – among other tasks – deals with information extraction and semantic enrichment (Lejtovicz, Durco, Schlögl, & Wandl-Vogt, 2015); and «exploreAT!» (Wandl-Vogt, Kieslinger, O´Connor, & Theron, 2015; Dorn, Wandl-Vogt, Bowers, Piringer, & Seltmann, 2016) explores the DBÖ collection from the aspects of cultural lexicography, semantic technologies, visual analysis tools and citizen science. Both projects are carried out at the Austrian Centre for Digital Humanities, and contain similar common «entities» such as names of persons, locations and titles of literary works. In ÖBL this concerns the names of important historical figures, names of cities and countries relevant to the lives of the people in the biographies, as well as titles of books, journals, or publications mentioned in the biographies. In the DBÖ, on the other hand, we are dealing with names of locations and regions, names of data collectors or authors and also titles of dictionaries, dissertations and literature.

Our paper presents work in progress and captures the process of semantic enrichment with Apache Stanbol applied in the context of the APIS[6] and exploreAT! projects. The application of the described process on the project data is currently in its early stage of development. By the application of the below described computational methods in a Digital Humanities context, the diverse cultural knowledge contained in our resources cannot only be made accessible, but also connected to other sources and opened for re-use. The method we describe in this paper also contributes to the sustainability of our data sets and exemplifies how the constructed digital knowledge networks reveal information to the benefit of and availability to knowledge society. The semantic enrichment can create a connection between ÖBL biographies and DBÖ data entries: for example the biography about Franz Stelzhamer (an Austrian writer) and the linguistic information in the DBÖ entry schwarz (meaning black in German) collected by him, are linked together via the GND URI <http://d-nb.info/gnd/118753444>, a unique identifier associated with Stelzhamer.

Our motivation to apply Apache Stanbol for semantic enrichment was to benefit from its ability to create Referenced Sites (i.e. a local Solr index of a knowledge base) from any publicly available RDF-XML resource and to perform Entity Linking against the compiled Referenced Site. Other similar available services (e.g. DBpedia Spotlight[7], Babelfy[8], Ambiverse[9], etc.) would have limited our possibilities by restricting Entity Linking to given knowledge resources (e.g. DBpedia, WordNet, Wikidata), or only allow the use of a limited number of external or local resources against a paid service. In addition, Stanbol allows the user to take advantage of the integrated Natural Language Processing (NLP) frameworks such as OpenNLP[10] in a free, open source environment. For the ÖBL biographies, a procedure was set up in the context of the APIS project to convert unstructured, full text into structured, semantically enriched and machine-readable documents. Abbreviations were resolved with a regular expression based Java program to substitute them with their corresponding resolution taken from an ÖBL-intern abbreviations list. Then, Stanbol’s Entityhub Indexing Tool was configured and run to create Solr indexes from resources such as GeoNames and GND. After initializing the index, an Enhancement Chain was set up, consisting of two modules, an NLP pipeline responsible for language detection, sentence splitting, tokenization, part-of-speech tagging and chunking, and an entity matching component, linking the entities identified by the NLP pipeline to the Solr index. In our case, the NLP pipeline runs the OpenNLP software with the German model files. As entities are highly ambiguous, choosing the correct match is an essential part of our project. The two most common types of ambiguity in our data sets are 1) ambiguous place names and 2) common names colliding with place names. In the first case equivalent location names may exist in different countries (e.g. Wien, AT vs. Wien, USA), or in the same country (e.g. Purgstall AT). The second type of ambiguity is typical for ÖBL documents, where a German common name matches a location name (e.g., the German word «Arbeit» meaning «work/job» is also a name of village in South Sudan). Heuristics such as indexing only location names from ÖBL and DBÖ relevant countries, or taking into account the language code of the GeoNames resource are applied, in order to decrease false matches caused by the above mentioned name-collisions. Although heuristics can reduce the error rate of automatic Entity Linking, some manual correction will still be required. Similarly, location data from DBÖ (available in the placeName element of a DBÖ XML entry) can be enriched, and via the enrichments connected to ÖBL data. In APIS the authority files GeoNames and GND were used to enrich mentions of locations, persons, institutions and events respectively. This choice has proven to be advantageous, as other projects and data sets at our institute can make use of the same enrichment chains.

Hence, the described procedure can be applied to exploit information from these above mentioned, to-date separate Digital Humanities data sets, that cover culturally, ethnically, and linguistically diverse regions. The connections established via GeoNames URIs between the ÖBL biographies and linguistic data from the DBÖ, makes these resources re-usable, opens them up to research and innovation, and reveals new aspects to researchers by establishing connections that wouldn’t have been apparent without the applied automatic processing. Future possible applications of the described semantic annotation method include its application to other common entities of the ÖBL and DBÖ, such as person names and names of literary works, which would not only enable the enrichment of the two resources, but also their connectivity. Furthermore the integration of other DH related ontologies and reference resources such as VIAF is foreseen. Potentially, visualisation of the enriched data sets on a map (additionally to the RDF output format) would also grant new and easily accessible insights. With the DBÖ data being embedded in the project exploreAT!, it is also part of larger European infrastructures and networks such as DARIAH-CC, EGI-ENGAGE or COST ENeL, which support this opening and inter-linking process in wider European context.

References

Datenbank der Bairischen Mundarten in Österreich/ Database of Bavarian Dialects in Austria (DBÖ). Österreichische Akademie der Wissenschaften (Hrsg.), Vienna, Austria.

DORN, A., WANDL-VOGT, E., BOWERS, J., PIRINGER, B. & SELTMANN, M. (2016), «ExploreAT! – perspectives of exploring a dialect language resource in a framework of European digital infrastructures», 1st International Congress on Sociolinguistics (ICS-1), Budapest, Hungary.

LEJTOVICZ, K., DURCO, M., SCHLÖGL, M., WANDL-VOGT, E. (2015), «APIS New Austrian Prosopographical Information System. Mapping Historical Networks», 2nd DHA Conference, Vienna, Austria.

GRUBER, C., FEIGL, R. (2009), «Von der Karteikarte zum biografischen Informationsmanagementsystem. Neue Wege am Institut Österreichisches Biographisches Lexikon und biographische Dokumentation», en: SCHATTKOWSKY, Martina, METASCH, Frank (eds.), Biografische Lexika im Internet. Internationale Tagung der „Sächsischen Biografie in Dresden (30. und 31. Mai 2008) (= Bausteine aus dem Institut für Sächsische Geschichte und Volkskunde 14), Dresden, Thelem Universitätsverlag, pp. 55–75.

WANDL-VOGT, E., KIESLINGER, B., O´CONNOR, A. & THERON, R. (2015), «ExploreAT! Perspektiven einer Transformation am Beispiel eines lexikographischen Jahrhundertprojekts», DHd-Tagung 2015, Graz, Austria. Accessed at: (Last accessed: 12-04-2016).

WANDL-VOGT, E. (ed.) (2012), «Datenbank der Bairischen Mundarten in Österreich @electronically mapped/Database of Bavarian Dialects», in Austria electronically mapped (dboe@ema), Österreichische Akademie der Wissenschaften, Wien. Accessed at: (Last accessed: 12-05-2016).

[1] http://linkeddata.org/ (last accessed: 28.04.2017).

[2] http://pro.europeana.eu (last accessed: 28.04.2017).

[3] <http://wiki.dbpedia.org/> (last accessed: 28-04-2017).

[4] <http://www.geonames.org/> (last accessed: 28-04-2017).

[5] (last accessed: 28-04-2017).

[6] <http://www.oeaw.ac.at/acdh/en/apis> (last accessed: 28-04-2017).

[7] <http://demo.dbpedia-spotlight.org/> (last accessed: 28-04-2017).

[8] <http://babelfy.org/about> (last accessed: 28-04-2017).

[9] ps://www.ambiverse.com> (last accessed: 28-04-2017).

[10] (last accessed: 28-04-2017).

I-Media-Cities: las ciudades filmadas, historia e identidad europeas

Enric Ciurans
Universidad de Barcelona

Isabel Fabregat
Universidad de Barcelona

Núria F. Rius
Universidad de Barcelona

 Irene Gras
Universidad de Barcelona

Teresa-M. Sala
Universidad de Barcelona

Palabras clave: patrimonio cinematográfico, metadatos, ciudades, e-research
Keywords: cinematographic heritage, metadata, cities, e-research

I-Media-Cities (Innovative e-environment for Research on Cities and the Media) es un proyecto de investigación y difusión del patrimonio cinematográfico en torno a las ciudades filmadas en el que participan centros de investigación y archivos de nueve capitales europeas: Bruselas, Viena, Barcelona, Frankfurt, Estocolmo, Copenhague, Turín, Bolonia, Atenas. (v. fig. 1).

En el caso de Barcelona, las dos instituciones que colaboran conjuntamente son el Centro de Conservación y Restauración de la Filmoteca de Catalunya y el grupo de investigación GRACMON [Grup de Recerca en Història de l’Art i del Disseny Contemporanis, Universidad de Barcelona ]. El proyecto está financiado por Horizon2020 en la convocatoria Sociedades reflexivas: patrimonio cultural e identidades europeas, y prioriza especialmente la investigación acerca de la historia y la identidad de Europa.

El objetivo principal es crear una plataforma digital multilingüe, a disposición de los investigadores y el público en general. En la plataforma se podrá consultar una selección de películas que integran las colecciones audiovisuales relacionadas con la ciudad de cada institución participante. Para ello es fundamental el desarrollo de una base tecnológica compleja que permita automatizar procesos de análisis y detección, a fin de facilitar la investigación. La configuración de diversas herramientas de visualización (mapa, línea de tiempo) está en fase experimental.

Además de poner en valor y difundir este patrimonio, otro de los objetivos es generar conocimiento y contenido a partir del análisis de los films. En este sentido, a nivel metodológico se ha partido de una nomenclatura para ir elaborando una taxonomía que se irá ampliando a lo largo del proyecto. Los ejes temáticos propuestos son comunes entre las diferentes ciudades: desarrollo urbano, arquitectura, ferias y exposiciones, turismo, política, cultura y sociedad, transportes y vida en la calle, guerra y conflictos, estudios de género y el cine dentro del cine. Éstos permitirán establecer comparaciones entre dos o más ciudades y generar investigaciones conjuntas (p.e. el fenómeno de las exposiciones internacionales o la construcción, destrucción y reconstrucción de las ciudades).

I-Media-Cities-Barcelona ha visualizado 509 films de la colección de la Filmoteca de Catalunya relacionados con la ciudad (desde 1896 hasta 1939, con una adenda hasta 1992) de entre los cuales se han seleccionado y documentado 128. Una vez efectuada dicha selección se llevará a cabo un intenso trabajo colaborativo para poder cruzar los metadatos de las ciudades implicadas.

En otro registro cabe destacar que desde nuestro grupo de investigación pretendemos analizar y estudiar las imágenes en movimiento, poniendo énfasis en los diferentes puntos de vista (profesional/amateur), presencia/ausencia, los iconos simbólicos de la ciudad y los casos singulares.

Desde el inicio del proyecto se ha tenido en cuenta la posible variedad de tipos de usuarios (investigadores de diferentes ámbitos, profesores, creativos, público en general) que además de poder tener acceso a estos contenidos audiovisuales, en principio, podrán aportar sus conocimientos enriqueciendo esta plataforma colaborativa. La plataforma también permitirá a los investigadores registrados tener un apartado de notas personales que podrán compartir con otros usuarios.

Está previsto que la plataforma se abra en 2019. Además, actualmente ya se están generando resultados de investigación más allá de la plataforma: se está llevando a cabo investigación dentro de la investigación, que en un futuro podrá visualizarse y difundirse en forma de exposiciones, seminarios, etc.

A modo de conclusión, consideramos que en el campo de las humanidades digitales esta plataforma conllevará un nuevo paradigma en la manera de investigar y en la generación de nuevos conocimientos. Hasta el momento el sistema de acercamiento al patrimonio fílmico se ha centrado principalmente en una visión tradicional de la historia del cine, poniendo énfasis en la autoría, otorgando importancia a los directores y a la industria cinematográfica, partiendo de una clasificación basada en la diferenciación de géneros. Además el proyecto se fundamenta sin duda en la interdisciplinariedad que da paso a interpretaciones diversas y puntos de vista variados de las distintas disciplinas humanísticas.

En definitiva, el horizonte que se persigue pretende explorar puntos de convergencia y de divergencia del caleidoscopio de identidades que es Europa.

Financiación

El proyecto I-Media-Cities ha recibido financiación del programa de investigación e innovación Horizonte 2020 de la Unión Europea bajo el acuerdo de subvención N ° 693559.

Imágenes

Image and video hosting by TinyPic
Figura 1 Mapa de las ciudades participantes en el proyecto I-Media-Cities

Hacia una integración de bases de datos sobre el teatro clásico español: el proyecto ASODAT

Teresa Ferrer Valls
Universitat de València

Josefa Badía Herrera
Universitat de València

Ariadna Fuertes Seder
Universitat de València 

Alejandro García Reidy
Syracuse University

Margaret R. Greer
Duke University

Lola Josa
Universitat de Barcelona

Héctor Urzáiz
Universidad de Valladolid

Palabras clave: Bases de datos federadas, teatro clásico español, patrimonio
Keywords: Federated Databases, Spanish Early Modern Theatre, Heritage

Nuestra intervención en el III Congreso de la Asociación de Humanidades Digitales tiene como objeto la presentación del proyecto ASODAT, un proyecto de ámbito nacional, financiado por el MINECO, que congrega a tres grupos de investigadores de las Universidades de Valencia, Valladolid y Barcelona, que trabajan sobre el teatro clásico[1]. El grupo está coordinado desde la Universidad de Valencia por Teresa Ferrer Valls, directora del proyecto DICAT (Ferrer et. al., 2008), y del grupo del mismo nombre, formado en 1995 y pionero en su día en el tratamiento de la información sobre documentación teatral en España en forma de base de datos (Ferrer, 2013).

La finalidad del nuevo proyecto ASODAT es integrar y correlacionar la información con la que cuenta cada equipo de investigación que lo integra en una nueva base de datos. Como punto de partida se cuenta con las distintas bases de datos que maneja cada grupo, algunas ya de largo recorrido, otras de nueva creación, que están todas ellas relacionadas con el teatro español de los Siglos de Oro: bien con la recopilación, análisis crítico y tratamiento de la información referida a noticias de representación y su identificación con obras y autores concretos (CATCOM); bien con el análisis y catalogación de las censuras y aprobaciones aplicadas a las obras teatrales españolas del Siglo de Oro y del periodo conocido como «tardobarroco» (CLEMIT); bien con la catalogación y tratamiento específico de textos musicados relacionados con obras de nuestro teatro clásico (Digital Música Poética); bien con el tratamiento de la escritura (las manos) de los diferentes copistas, que nos ha legado la abundante transmisión manuscrita de nuestro teatro clásico (Manos). Para ello, ha sido preciso un trabajo de adaptación de las bases de datos con las que ya se contaba, ya que algunas de ellas fueron realizadas a partir de un software comercial propietario (FileMaker), con el propósito de poder crear de manera eficiente el nuevo sistema ASODAT.

El avance de las humanidades digitales, con cuyo ámbito se relaciona estrechamente nuestro proyecto coordinado, favorece la valoración de las publicaciones rigurosas en abierto, en sistemas de lenguaje universal, y en aplicaciones gratuitas que faciliten las búsquedas transversales y el cruce de la información. En esta línea, creemos que es el momento de dar un paso más, ahora en dirección hacia la articulación y ampliación de toda la información contenida en las BBDD en una plataforma común: para ello, y teniendo una visión de futuro, es imprescindible la adaptación a un formato estandarizado (nuestra elección ha sido la migración a MySQL) de las BBDD existentes (CATCOM, CLEMIT, Manos) y la creación de una nueva BD en ese mismo formato (Digital Música Poética).

La metodología seguida durante todo el proyecto ha sido la empleada en ingeniería para el diseño de sistemas de información (Codina, 1996, 1998) haciendo hincapié en el análisis inicial de las bases de datos ya desarrolladas (CATCOM y CLEMIT) con el fin, no solo de realizar una migración a nuevos sistemas gestores de bases de datos más independientes, como es el caso de MySQL, sino sobre todo en la primera fase, con el objeto de extraer las características comunes y tratar de compararlas con las necesidades de las nuevas bases de datos que teníamos que crear. Este análisis detallado de necesidades conduce a la creación de bases de datos en donde han de quedar homogeneizados los parámetros que eran semejantes en las antiguas bases de datos, de manera que esto permita cruzar posteriormente esos datos con mayor facilidad (Sheth, 1999). Del estudio realizado se observó que las bases de datos de nueva creación tenían un cierto grado de semejanzas con las que ya existían y las que ya estaban operativas se podían remodelar para tratar de que fuese más fácil trabajar con ellas.

Previo al desarrollo, se contemplaron las distintas posibilidades para el sistema final: se tuvo en cuenta la posibilidad de crear una nueva base de datos que contuviese la unión de toda la información incluida en las bases de datos independientes y se analizaron los costes de implementación que conllevaría pero, sobre todo, de mantenimiento de la información por parte de los equipos de investigación independientes tanto en las bases de datos propias como en la de nueva creación. Por otra parte, también se contempló la posibilidad de federar dichas bases de datos de manera que puedan ser independientes y seleccionar la información que se desea compartir y cómo, y de esta manera construir el nuevo sistema que permita el acceso común e interrelacionado a toda la información (Buch, 2002).

Hay que tener en cuenta que un sistema de bases de datos federadas es una colección de sistemas de bases de datos cooperativos y autónomos donde los usuarios pueden acceder a los datos de los distintos sistemas a través de una interfaz común que los correlaciona y los unifica. Por tanto, una base de datos federada no es una base de datos única distribuida, sino que es una solución para acceder a la información depositada en distintas bases de datos.

En un sistema federado los usuarios tienen acceso a los datos de los distintos sistemas a través de una interfaz común, sin embargo, no existe un esquema global que describa todos los datos de las distintas bases de datos. En su lugar hay varios esquemas unificados y cada uno describe porciones de bases de datos y archivos para el uso de cierta clase de usuarios.

Tras haber estudiado las distintas opciones de diseño, se optó por la federación de bases de datos debido principalmente a la capacidad de biprocesamiento que tienen, es decir, de atender consultas globales a la vez que permiten que las bases de datos que las componen puedan seguir atendiendo a sus aplicaciones locales. El siguiente paso que hemos de dar es decidir cuál de las arquitecturas para el manejo de bases de datos federadas se acopla mejor a nuestro problema, entre ellas tenemos: la arquitectura de 5 niveles propuesta por Seth y Larso (1990); la arquitectura de 3 niveles (ANSI/SPARC); o la arquitectura de esquemas de las data warehouse.

Image and video hosting by TinyPic

Figura 1

En resumen, el proyecto actual tiene dos frentes: por un lado, el trabajo de investigación, que no se paraliza y permite ir ampliando la información contenida en las diferentes bases de datos, cuya articulación ha de repercutir en un avance del conocimiento (Ferrer, 2014); por otro, el trabajo de diseño informático de una nueva arquitectura, que estamos desarrollando, y que permitirá correlacionar dichas bases de datos y así poder consultar en todas ellas a través de una única petición. El nuevo diseño posibilitará la visualización de todos esos resultados no solo en parcelas autónomas sino también de una forma integrada, de manera que obtendremos un mayor aprovechamiento de la información, y todo ello migrado a un sistema de bases de datos que nos permite utilizar un lenguaje de consulta estandarizado (SQL). A medio y largo plazo nuestro propósito es que esta plataforma se convierta en una herramienta estable, que por su naturaleza favorece la ampliación de estas BBDD con nueva información, y a la que se puedan ir incorporando otras BBDD afines, a partir de un esquema de adaptación y trabajo que ya habremos contrastado.

En el foro del Congreso queremos presentar los primeros pasos y resultados de un proceso que tenemos previsto culminar a fines de 2018.

Financiación

Proyecto financiado por Ministerio de Economía, Industria y Competitividad FFI2015-6597-C3

Bibliografía

BUCH, Vineet (2002), «Database Architecture: Federated vs. Clustered». En: <http://www.oracle.com/technetwork/database/windows/clustercomp-134873.pdf> (Fecha de consulta: 13-7-2017).

CODINA, Lluís (1996), «Metodología de análisis de sistemas de información y diseño de bases de datos documentales. SCIRE», Representación y Organización del Conocimiento, vol. 2, n.º 2, julio-diciembre, pp. 11-34  <http://www.ibersid.eu/ojs/index.php/scire/article/view/1055/1037> (Fecha de consulta: 13-7-2017).

CODINA, Lluís (1998), «Metodología de análisis de sistemas de información y diseño de bases de datos documentales: aspectos lógicos y funcionales», Bibliodoc: anuari de biblioteconomia, documentació i informació, pp. 195-210 <http://www.raco.cat/index.php/Bibliodoc/article/view/56634/66056> (Fecha de consulta: 13-7-2017).

FERRER VALLS, Teresa (dir.), BADÍA HERERA, Josefa, GARCÍA-REIDY, Alejandro, et al. (2008), Diccionario biográfico de actores del teatro clásico español (DICAT), Kassel, Edition Reichenberger.

FERRER VALLS, Teresa (2013), «CATCOM: A Database on Performances of Spanish Classical Theater», Journal for Early Modern Cultural Studies, vol. 13, n.º 4, pp. 160-163.

FERRER VALLS, Teresa (2014), «Hallazgos y posibilidades nuevas en la investigación del patrimonio teatral: Bases de datos y documentación», Cuadernos de Teatro Clásico, n.º 29, pp. 89-103.

SHETH, P. & LARSON, J. A. (1990), «Federated Database Systems for Managing Distributed, Heterogeneous, and Autonomous Databases», ACM Computing Surverys, vol. 22, n.º 3, pp. 183-236.

[1] Grupo de Investigación teatral DICAT <http://www.uv.es/dicat>; grupo CLEMIT. <http://www.clemit.es>; grupo Digital Música Poética .

La reutilización de la colección de Música (partituras y registros sonoros de la Biblioteca Nacional de España)

María Jesús López Lorenzo
Jefe de Servicio de Registros Sonoros de la BNE 

María Teresa Delgado Sánchez
Jefe de Servicio de Partituras de la BNE

Palabras clave: patrimonio musical, grabaciones sonoras, partituras, digitalización, humanidades digitales
Keywords: musical heritage, sound recordings, scores, digitization, digital humanities

Resumen

La Biblioteca Nacional de España es la cabecera del Sistema Bibliotecario Español. El Departamento de Música y Audiovisuales preserva fuentes únicas de la música española y la cultura hispánica, tanto escritas como sonoras.

Desde mayo de 2010, el Departamento de Música y Audiovisuales de la BNE ha estado involucrado en la digitalización sistemática de sus archivos, tanto de partituras como de registros sonoros.  En otoño 2010 se comenzó con la colección de más de 80 volúmenes de canto llano de los siglos XV al XIX y en junio de 2011 se puso a disposición de los usuarios una selección de 31.135 partituras de los archivos históricos más importantes del Departamento anteriores a 1930, además de 15.000 grabaciones de música y palabra registradas en soportes históricos de sonido (discos de pizarra, discos perforados, rollos de pianola…). Por lo tanto, la colección digital del Departamento de Música y Audiovisuales de la BNE constituye un punto de partida dado su valor patrimonial para la reutilización de contenidos y el desarrollo de productos y servicios culturales. En mayo de este año BNE y Red.es presentan un nuevo espacio virtual (BNElab). «El Juego Filarmónico» es nuestra primera propuesta, un desarrollo tecnológico realizado a partir de un manuscrito del siglo XVIII que se conserva en los fondos del Departamento de Música y Audiovisuales.

  1. Introducción

Desde el año 2010 el Departamento de Música y Audiovisuales de la Biblioteca Nacional de España[1] está inmerso en la adaptación al entorno digital, como el resto de Departamentos de la BNE. Se ha apostado por digitalizar las colecciones tanto de partituras como de registros sonoros, con un doble objetivo de preservación y difusión, partiendo de una metodología que combina criterios de digitalización sistemática y masiva con otros más selectivos, concebidos para proyectos monográficos. Al mismo tiempo se han impulsado proyectos de reutilización de las colecciones que muestren nuevos usos del patrimonio, como es el caso del BNElab y el primer proyecto de reutilización de fondos digitales, el «Juego filarmónico». La música es un lenguaje universal que traspasa barreras lingüísticas y que, probablemente es la manifestación artística más extendida y de mayor aceptación social.

Uno de los objetivos del plan estratégico 2015-2020 de la BNE es la digitalización y difusión de sus colecciones, así como la mejora en el acceso a las colecciones digitalizadas y conjuntos de datos. Los fondos del Departamento de Música y Audiovisuales, que hasta el momento se han digitalizado, alcanzan la cifra de 2.200 libros de música y 60 periódicos musicales anteriores a 1900, 32.000 partituras y cerca de 12.000 grabaciones de sonido de soportes históricos (discos de pizarra, cilindros de cera, discos perforados, carretes de hilo magnético y 3.500 rollos de pianola).

  1. La digitalización, primera fase para la reutilización de contenidos

Los cambios en el sector público son más que evidentes, actualmente la administración quiere ofrecer contenidos y servicios que sean útiles para la sociedad. Las bibliotecas se enmarcan dentro de la nueva directiva 2013/37UE de 26 de junio de 2013, por la que modifica la Directiva 2003/98/CE. Esta última Directiva ha sido transpuesta en la Ley 18/2015, de 9 de julio, por la que modifica la Ley 37/2007 sobre reutilización de la información en el sector público, de 16 de noviembre, en ella se incorpora un epígrafe específico para el marco bibliotecario:

… se ha ampliado el ámbito de aplicación a las bibliotecas, incluidas las universitarias, los museos y los archivos, dado el importante volumen de recursos de información que poseen y los proyectos de digitalización que vienen llevando a cabo.

La Biblioteca Nacional de España ha redactado un documento específico sobre la reutilización de sus contenidos donde se expone detalladamente las medidas a llevar a cabo para este nuevo proceso[2]

El primer gran proyecto de reutilización de contenidos de BNE ha sido la creación del portal online, datos.bne.es[3], a través del cual se puede acceder a los registros bibliográficos del catálogo de la biblioteca siguiendo las directrices de Linked Open Data y la línea tecnológica de la web semántica. La licencia aplicada a los datos es CCO (Creative Commons Public Domain Dedication), que es una licencia completamente abierta y que permite la reutilización.

Los nuevos proyectos de humanidades digitales han cambiado el perfil de acceso al conocimiento ya que la disposición de los contenidos del patrimonio bibliográfico musical en línea ha ampliado y modificado nuestros usuarios finales. Desde el Departamento de Música y Audiovisuales de BNE queremos destacar algunos de los proyectos de digitalización de contenidos en los que hemos estado inmersos y que pueden ser base para proyectos de reutilización.

En el Servicio de Partituras cerca de 32.000 partituras están a disposición pública; se ha llevado a cabo un importante volcado de todos nuestros fondos patrimoniales, por lo que se considera nuestro portal de Biblioteca Digital Hispánica[4] un referente internacional de contenidos de la producción musical española, tanto impresa como manuscrita.

Uno de los proyectos del Departamento de Música y Audiovisuales, ha sido la digitalización y descripción de nuestra colección de libros de coro (v. fig. 1). Un corpus de cerca de 80 cantorales de gran formato que ha necesitado un desarrollo informático específico siguiendo las pautas de otros  proyectos internacionales como Corpus Antiphonalium Officii-Ecclesiarum Centralis Europeae (CAO-ECE) o Cantus: a database for latin ecclesiastical chant (CANTUS) que han generado sus propios catálogos, incorporando aspectos musicales como el estilo musical, la tonalidad-modalidad, armadura, alteraciones, incipit musical e incipit textual para poder identificar miles de composiciones a la ver que permitir el cotejo de distintas  variantes en las distintos ejemplares manuscritos.

Fruto de la colaboración entre musicólogos, bibliotecarios e informáticos esta aplicación informática resultante integra la catalogación en formato MARC21 con una descripción al mínimo detalle, en la aplicación paralela, que complementa el registro bibliográfico en nuestro SIGB Symphony (v. fig. 2). Dos de las peculiaridades de la catalogación de este tipo de repertorio son los dos campos específicos en formato MARC21 (031 de íncipit musical y 520 de nota de resumen), que ha permitido generar en la base de datos una nota de contenido en latín con las fiestas litúrgicas comprendidas en el manuscrito. Todo este proceso de catalogación ha conllevado una completa normalización, tanto del propio incipit musical (con el código internacional Plaine and Ease Code)[5], como para el modo se ha elaborado una tabla maestra con los ocho modos y sus diferencias correspondientes para las antífonas, y además diferentes tablas maestras para la fiesta litúrgica, momento litúrgico y tipo de pieza.

Siguiendo la línea de digitalización de contenidos, el Servicio de Registros Sonoros comenzó este proceso en junio de 2011 (AMAT, 2012: 247-255). La primera fase comprende los más antiguos conservados en la BNE: los discos de pizarra y los cilindros de cera. A este respecto, la BNE firmó en 2010 un acuerdo con sociedades de gestión de derechos de autor e interpretación, como la SGAE y la AIE, para poder subir dichas grabaciones a su página Web, mediante el pago de unas cuotas adaptadas a la naturaleza de esta institución bibliotecaria y a su carácter de centro conservador y difusor de la cultura española. El objeto digital en formato mp3, se presenta al usuario a través de una aplicación de streaming basada en la tecnología Flash que incorpora unos controles básicos (reproducción, pausa, y control de volumen). Esto, además de permitir al usuario escuchar el recurso prácticamente desde el primer momento, impide su descarga por parte del usuario (López, 2015: 49-68) (v. fig. 3).

 Image and video hosting by TinyPic
Figura 2

 

Image and video hosting by TinyPic
Figura 3

En el 2012 se inicia la segunda fase de digitalización de sonido y, gracias a un nuevo acuerdo con telefónica, se digitalizan unos 10.000 nuevos discos de pizarra. En la digitalización del 2011 y 2012 no ha habido ningún criterio de selección de registros, se han incluido todas las grabaciones sonoras antiguas que posee la BNE, excepto la digitalización de los catálogos impresos de rollos de pianola y discos de pizarra. Esta digitalización selectiva de los catálogos está inmersa en un proyecto del grupo de trabajo de registros sonoros de AEDOM (Asociación Española de Documentación Musical). Se trata de crear una base de datos colectiva que recoja todos los catálogos impresos de estos documentos antiguos y que sirva de fuente para datarlos y catalogarlos[6].

Muchos productos de digitalización de nuestras colecciones no han sido solo realizados por la Biblioteca Nacional de España, sino que hemos tenido socios que nos han ayudado a llevarlos a cabo. En el caso de los documentos sonoros, empresas como Tecnilógica[7], Telefónica, Universidad Politécnica de Barcelona o ahora Red.es. han hecho que podamos hablar de grandes colecciones que están digitalizadas y que puedan ser reutilizadas.

Uno de los proyectos pionero en digitalización de registros sonoros fue el realizado durante el año 2013, con la colección de discos perforados, fabricados entre los años 1880 y 1905. Este soporte sonoro es uno de los primeros formatos comerciales de distribución musical.  El partner que produjo un software capaz de transformar los espacios de los discos perforados en notas musicales fue la empresa Tecnilógica. En ellos no hay sonido grabado, sino las instrucciones sobre cómo un dispositivo tiene que reproducir una serie de notas musicales. Lo novedoso del proyecto fue la forma de digitalizar los documentos. Las perforaciones de los discos, donde estaba la música, fueron traducidas al sistema binario y se crearon los ficheros Midi que después se digitalizaron y así obtuvieron los Wav o Mp3 que suenan hoy en la página de la BDH. (v. fig. 4)

Image and video hosting by TinyPic
Figura 4

Otro de los importantes proyectos de digitalización fue la colección los rollos de pianola realizada durante el año 2016. Este tipo de soportes sonoros tuvo importante éxito entre los años 1910 y 1930, ya que eran escuchados en los café-teatro de la época. Para llevar a cabo la digitalización, el socio colaborador fue el Departamento de Arte y Musicología de la Universidad Autónoma de Barcelona y el Centro de Visión por Computador, quienes diseñaron un nuevo sistema de visión por computador. Ambas instituciones eran pioneras en la preservación de los rollos de pianola[8]. Del total de 6.500 rollos de pianola con que cuenta la colección de la Biblioteca Nacional, se han digitalizado 3.300 rollos y pueden reproducirse en la BDH. En este proyecto se han tratado aspectos muy diversos: digitalización, ingeniería de software, restauración de los soportes originales, preservación digital y musicología. El trabajo ha requerido una alta especialización a cargo de ingenieros, musicólogos, bibliotecarios y restauradores. Ese carácter multidisciplinar, aún no había sido abordado por ninguna gran institución a nivel internacional. (v. fig. 5)

  1. Proyectos de reutilización: El juego filarmónico[9]

La Biblioteca Nacional de España ha dado el primer paso para la reutilización de sus propios contenidos con el lanzamiento de BNElab, el primer proyecto dentro de este nuevo marco es además un manuscrito musical del siglo XVIII. En mayo de 2017 la directora Ana Santos Aramburo y el director general de Red, José Manuel Leceta presentaron este nuevo espacio de trabajo concebido para la reutilización del fondo patrimonial en formato digital de la biblioteca. Entre las líneas de trabajo de este nuevo espacio virtual están mejorar y enriquecer los conjuntos de datos de la BNE y promover su libre reutilización, y fomentar la creación de nuevos productos y servicios digitales a partir de las colecciones de la BNE que muestren nuevos usos del patrimonio y su interés para sectores muy diferentes.

La primera propuesta de reutilización ha sido «El juego filarmónico», elaborado por la empresa Tecnilógica, se trata de un desarrollo tecnológico a partir de un manuscrito musical que proporciona la creación de minuetos online a través de un juego de dados.  Gracias a este proyecto se avanza en la reconversión de contenidos y se amplía el público destinatario de nuestras colecciones al permitir que el nuevo «minué» sea compartido en distintas redes sociales (Facebook, Twitter…).

  1. Conclusiones

Actualmente la disposición pública de contenidos ha permitido que se haya avanzado exponencialmente en los proyectos asociados a las fuentes históricas musicales. En el último Medieval-Renaissance Music Conference MED-REN, celebrado en Praga en 2017 se han presentado proyectos como Cantus Index, un catálogo de incipits textuales y musicales para el oficio y la misa que conecta distintas bases de datos de música medieval y que se identifican por el Cantus ID Number o la nueva base de Libros de Polifonía Hispana (BHP) del CSIC-IMF. Las colecciones digitales permiten avanzar enormemente en los productos desarrollados por los centros de investigación ya que el fácil acceso a las fuentes es ya una realidad. Destacan también agregadores de enlaces como meros portales de acceso a nuestros contenidos digitalizados como Open Music Library[10]. Esta nueva iniciativa de la editorial Alexander Street da acceso a gran cantidad de recursos digitales para uso pedagógico, entre los documentos accesibles mediante enlace se encuentran gran cantidad de partituras digitalizadas de BDH. Desde el punto de vista de la reutilización de contenidos de audio a nivel internacional destaca el Laboratorio de Música Digital- Análisis de Datos de la Gran Música (DML) de la British Library (Abdallah, 2016).

Para finalizar proyectos como CMME[11], ECOLOM[12] o Josquin Research[13],  gracias al esfuerzo cooperativo de  equipos multidisciplinares, han desarrollado  bases de datos con repertorios  de interés musical/musicológico  dando los primeros pasos a lo que serán los actuales y futuros proyectos  de reutilización de contenidos, como también los avances en el reconocimiento óptico de caracteres, como el proyecto  SIMMSA[14], que permitirán un nuevo estadio en la investigación científica de la música histórica de nuestras bibliotecas patrimoniales.

 

Bibliografía

ABDALLA, Samer (2015), «The Digital Music Lab: a big data infrastructure for digital musicology». En: (Fecha de consulta: 14-07-2017).

AMAT TUDURI, M.ª Amparo, HERNÁNDEZ MUÑIZ, Cayetano & LÓPEZ LORENZO, María Jesús (2012), «Servicio de Registros Sonoros: proyecto de digitalización», Boletín ANABAD, 62 (4), pp. 247-255.

AMAT TUDURI, M.ª Amparo, LÓPEZ LORENZO, María Jesús (2015), «La colección de grabaciones sonoras musicales y de palabra hablada de la Biblioteca Nacional de España», Boletín DM, año 19, pp. 100-124.

BIBLIOTECA NACIONAL DE ESPAÑA (2016), Plan de medidas de impulso de la reutilización de la Información, Madrid, Biblioteca Nacional de España.

DELGADO SÁNCHEZ, María Teresa (2012), «Hacia una biblioteca digital musical: el caso de la Biblioteca Nacional de España», Boletín DM, año 16, pp. 30-39.

DUVAL, Eric (2015), «Musicology of early music with Europeana tools and services». En:  (Fecha de consulta: 14-07-2017).

GOSÁLVEZ LARA, José Carlos (2011), «The music collections and audio-visual documents in the spanish National Library», Fontes Artis Musicae, Jul-Sep, vol. 58, Issue 3, pp. 317-320.

GOSÁLVEZ LARA, José Carlos (2014), CANTORALES: libros de música litúrgica en la BNE (2014), [del 19 de septiembre de 2014 al 18 de enero de 2015], Madrid, Biblioteca Nacional de España.

LÓPEZ LORENZO, María Jesús (2015), «Archivando la palabra», Actas de las 7 Jornadas Archivando: La nueva gestión de los archivos, Fundación Sierra-Pambley, 6-7 de noviembre de 2014, León, pp. 49-68.

RILEY, JENN & FUJINAGA, ICHIRO (2003), «Recommended best practices for digital image capture of musical scores», OCLC Systems & Capture & Services, vol. 19, n.º 2 (2003), pp. 62-69.

[1] A partir de ahora BNE.

[2] Plan de medidas de impulso de reutilización de información pública (RISP). <http://datos.gob.es/sites/default/files/datosgobes/plan_risp_bne.pdf > (Fecha de consulta: 14-07-2017).

[3] < http://datos.bne.es/inicio.html > (Fecha de consulta: 14-07-2017).

[4] A partir de ahora BDH.

[5] El Plaine and Easy Code está desarrollado en la página de la International Association of Music Libraries < http://www.iaml.info/plaine-easie-code > (Fecha de consulta: 14-07-2017).

[6] <http://www.aedom.org/matriz> (Fecha de consulta: 14-07-2017).

[7] Liquid Squad de Accenture Digital (antigua Tecnilógica).

[8]<http://blog.bne.es/blog/la-musica-de-los-rollos-de-pianola-inunda-la-bdh/> (Fecha de consulta: 14-07-2017).

[9] .

[10]< https://openmusiclibrary.org/> (Fecha de consulta: 14-07-2017).

[11] < http://www.cmme.org/ > (Fecha de consulta: 14-07-2017).

[12] < http://www.ecolm.org > (Fecha de consulta: 14-07-2017).

[13] < http://josquin.stanford.edu/g > (Fecha de consulta: 14-07-2017).

[14] < https://simssa.ca/> (Fecha de consulta: 14-07-2017).

Symbola: divisas históricas (emblemática personal) en la Europa medieval y moderna. Diseño e implementación de la base de datos y la interfaz de consulta

Sagrario López Poza
Universidade da Coruña

Ángeles Saavedra Places
Universidade da Coruña

Palabras clave: Base de datos, Emblemática, divisas, Edad Media, Renacimiento,
Keywords: Database, Emblematics, Devices, Middle Ages, Renaissance

Las «divisas, empresas, invenciones» y muchas de las marcas de impresor constituyen una modalidad genérica de la Emblemática a la que se ha prestado poca atención hasta ahora por diversos motivos, el principal de ellos la excesiva especialización académica. Al tratarse de artefactos híbridos (palabra + imagen) y con textos frecuentemente en latín, no quedaba claro si debían ser los filólogos clásicos o los especialistas en lenguas modernas, Historia o Historia del Arte los que debían implicarse en su análisis y estudio. La mayor apertura actual hacia el trabajo en equipos multidisciplinares ha favorecido un estudio comprensivo de un género complejo. Hasta hace poco tiempo, los juicios sobre esta modalidad de la emblemática se basaban en la repetición de lo expuesto en estudios sobre empresas italianas o divisas francesas o contemplaban el producto solo en una de sus partes (los especialistas en Literatura analizaban como textos poéticos los motes, letras o invenciones y los de Historia del Arte focalizaban su interés en las imágenes simbólicas para sus estudios de Iconografía o Iconología).

Otra dificultad para su estudio radica en la propia naturaleza efímera de algunas de las divisas, que no solo se empleaban en la modalidad heroica (más persistente en el tiempo) sino que muchas veces se usaban en acontecimientos festivos y eran creadas ad hoc para ser ostentadas ocasionalmente («invenciones»). La variedad de fuentes y soportes de los testimonios (muchas veces manuscritos, retratos –pintados o grabados–, miniaturas, orlas de códices, cartas de hidalguía, relaciones de sucesos, etc.) ha sido también una rémora para su estudio.

Tal vez sea por eso por lo que los catálogos modernos son muy escasos y limitados a ciertos actos festivos o a libros de empresas (franceses o italianos) impresos (Alan R. Young, 1988; Mason Tung, 2006). Solo recientemente se ha publicado uno con aspiración más global, pero sin análisis y manco en lo que se refiere al ámbito español (Palasi, 2016). Y solo existe un recurso digital de esta naturaleza, la base de datos Devise, coordinada por L. Hablot (2014) en la Université de Poitiers, pero apenas tiene representación hispana y trata el fenómeno vinculado a la Heráldica, sin la definición terminológica y genérica más adecuada de la Emblemática.

El SIELAE (Seminario Interdisciplinar para el Estudio de la Literatura Áurea Española), de la Universidade da Coruña (España), que ha dedicado varios proyectos al estudio de la Emblemática española y ha ofrecido recursos para su estudio en el portal BIDISO (Biblioteca Digital del Siglo de Oro) y a través de la red Aracne, ha acometido la creación de una base de datos sobre divisas o empresas históricas (emblemática personal) empleadas por reyes, caballeros, eclesiásticos, académicos, impresores, etc. desde los inicios del género, a finales de la Baja Edad Media, hasta sus manifestaciones en tiempos de plenitud (siglos XV-XVI) y su declive a finales del siglo XVII.

En el seno de los proyectos de BIDISO se han defendido varias tesis doctorales, entre otras la de Andrea Maceiras Lafuente, dirigida por Sagrario López Poza (defendida en enero de 2016), basada en fuentes españolas de entre 1511 y 1629, que ha proporcionado al equipo la solidez científica de sustrato de investigación para acometer la realización de una base de datos que se alimentará, en un principio, de las 675 divisas analizadas por Maceiras y publicadas como catálogo (2017), con una serie de campos añadidos que harán de este recurso una utilísima fuente de información y una herramienta de investigación de gran interés para la Historia, la Literatura y el Arte. El corpus inicial de 675 divisas registradas por Maceiras se ampliará en ámbito territorial y cronológico.

Esta comunicación presentará las consideraciones relativas al modelado de datos (con las dificultades iniciales del planteamiento genérico, decisiones sobre terminología, representación bimedial –palabra / imagen– etc.), el diseño conceptual de la base de datos, las pruebas y correcciones precisas realizadas, las tecnologías de desarrollo (especialmente interoperabilidad, accesibilidad, etc.) y el diseño de la interfaz de consulta. Se hará una demostración de los resultados.

Financiación

Este trabajo se ha realizado en el marco del proyecto Biblioteca Digital Siglo de Oro 5 (BIDISO 5), con referencia: FFI2015-65779-P, financiado por el Ministerio de Economía y Competitividad del Gobierno de España y el Fondo Europeo de Desarrollo Regional (FEDER) 2016-2019.

Bibliografía

PALASI, Philippe (2016), Mots, cris et devises emblematiques dans l’europe occidentale Medievale et Moderne, París, Picard.

MACEIRAS LAFUENTE, Andrea (2017), Empresas o divisas históricas: un catálogo basado en fuentes de 1511 a 1629, A Coruña, SIELAE & Society for Emblem Studies.

TUNG, Mason (2006), Impresa Index. To the Collections of Paradin, Giovio, Simeoni, Pittoni, Ruscelli, Contile, Camilli, Capaccio, Bargagli, and Typotius, New York, AMS Press.

YOUNG, Alan R. (1988), The English Tournament Imprese, New York, AMS.

Las aplicaciones de HD veinte años después: avances sobre la reingeniería de CBDRS

Nieves Pena Sueiro
Universidade da Coruña

Ángeles Saavedra Places
Universidade da Coruña

Palabras clave: Obsolescencia, Bases de datos, G.I.S., Relaciones de sucesos
Keywords: Obsolescence, Databases, G.I.S., Pamphlets News

La ponencia plantea el problema de la obsolescencia de las aplicaciones de Humanidades Digitales a partir de la experiencia con la base de datos CBDRS (Catálogo y Biblioteca Digital de Relaciones de Sucesos), y presenta las diferentes estrategias que pasan por la adopción flujos de trabajo para adaptarnos a las nuevas tecnologías y para mantener, conservar y ampliar o mejorar nuestros datos y objetos digitales.

La financiación ininterrumpida obtenida en proyectos de investigación autonómicos y estatales desde 1994 fue fundamental para el desarrollo del Catálogo y Biblioteca Digital de Relaciones de Sucesos (en la actualidad integrado en el portal Biblioteca Digital Siglo de Oro), y nos ha permitido asistir y participar en este proceso veloz de avance tecnológico que tanto ha contribuido al desarrollo del conocimiento.

La rapidez del avance y desarrollo tecnológico y los cambios en los paradigmas o metodologías inherentes implican la necesidad de reingenierías de las aplicaciones para que funcionen correctamente y podamos hacer uso de la información que nos brindan.

En el seno del grupo SIELAE se creó en el año 1994 una base de datos relacional para almacenar información bibliográfica sobre Relaciones de sucesos con tecnologías que entonces eran punteras pero que hoy resultan anticuadas (a pesar de que el software se fue actualizando y de que se han realizado ya diversos ajustes); al mismo tiempo los progresos en el conocimiento del campo de investigación, propiciados gracias al trabajo con la base de datos, dieron lugar a algunos cambios en el modelo de datos y a la necesidad de gestionar un volumen de información que no se había previsto.

Todas estas razones (los avances tecnológicos, las modificaciones en el modelo de datos o el volumen ingente de información) justifican que, dos décadas después, nos planteásemos la necesidad de soportar una reingeniería de la base de datos CBDRS, pues la aplicación tiene problemas de rendimiento (el tiempo de espera tras una búsqueda es elevado) y, además, el usuario pretende ya más usabilidad y mayores prestaciones en los catálogos digitales.

Pues bien, en esta ponencia presentamos los avances en la reingeniería de la base de datos CBDRS, que se construye como data provider del protocolo OAI-PMH, en el formato Dublin Core, y  así poder integrarse en metabuscadores que implementen dicho protocolo, como ARACNE. Red de Humanidades Digitales y Letras Hispánicas, que, además, es agregador de otros recolectores como Hispana (portal de acceso al patrimonio digital y agregador nacional) y Europeana (portal de acceso al patrimonio digital europeo).

Las actualizaciones y modificaciones a las que fue sometida la base de datos CBDRS la han convertido en una base de datos mucho más potente, capaz de almacenar gran cantidad de información y de devolverla al usuario según múltiples criterios de búsqueda en un tiempo de espera mínimo; además, permitirá exportar los resultados de búsquedas a otros formatos y enviarlos automáticamente. Una de las grandes novedades de CBDRS es que se completará con un sistema GIS, que permitirá visualizar la información resultado de las consultas en mapas. Por último, será una aplicación multidispositivo, con una interfaz capaz de adaptarse automáticamente a diferentes dispositivos (teléfonos móviles, tablets, ordenadores…), y garantizar así la accesibilidad toral al contenido.

Financiación

Los logros del grupo están ligados a las subvenciones recibidas para los proyectos de investigación subvencionados por la Xunta de Galicia XUGA 10403A93, XUGA 10402B95 y XUGA10401B98 y los subvencionados por el Plan Nacional I + D (Comisión Interministerial de Ciencia y Tecnología) con códigos: TEL96-1390-CO2-01, TEL1999-0335-C04-01, así como por el Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica (I+D+I), Ministerio de Educación y Ciencia y el Fondo Europeo de Desarrollo Regional (FEDER) BFF2003-03945, HUM2006-07410/FILO, FFI2009-08113 (subprograma FILO), FFI2012-34362 y FFI2015-65779-P.

Heterocronicidad

María Cuevas Riaño
Universidad Complutense de Madrid

Antonio Labella Martínez
Universidad Complutense de Madrid

Salvador Sancha Ros
CEO Eneso Tecnología de Adaptación

Palabras clave: tiempo, interactividad, participación, arte-ciencia-tecnología, arte digital
Key words: time, interactivity, participation, art-science-technology, digital art

Las creaciones artísticas de la serie Heterocronicidad tienen como objetivo conceptual la creación de composiciones visuales interactivas que reaccionan al contexto en la que están ubicadas y a los espectadores presentes en el espacio donde se encuentran instaladas.

La obra se auto-genera de acuerdo a un desarrollo semi-natural. La tecnología detrás del proyecto, una combinación de hardware y software hecho ad hoc, permite obtener una serie de parámetros del entorno que hacen al sistema evolucionar, incorporando al sujeto en la obra y haciéndole partícipe del resultado.

El eje discursivo que sostiene la producción experimental gira en torno a la relación del espectador con el contexto donde se ubica la obra, el tiempo físico vivido y la experiencia del tiempo rítmico representado. Se anuncia una producción que refleja un periodo temporal. Nuestra propuesta genera imágenes que no tienen un aquí y un ahora fijo o permanente. Su resultado final, depende del momento de observación, del modo de interacción que el espectador proponga en el espacio de la instalación, de la elección y disposición de las imágenes previamente construidas y de las reglas del juego que se han establecido para traducir los datos físicos que se toman del entorno a través de sensores y dispositivos digitales interconectados.

Para alcanzar una propuesta coherente y acorde a las necesidades teóricas y estéticas de los autores, se han elaborado previamente un conjunto de imágenes de diferentes tamaños con elementos visuales singulares y se ha asumido una cadencia rítmica de interacción y cambio del flujo de la imagen en pantalla basada en el comportamiento rítmico de las secuencias de reproducción del polen del olivo.

Se ha tenido en cuenta que la creación de la obra responda a una lógica evolutiva coherente. Del mismo modo que los cambios que se producen en un contexto influyen en el crecimiento de un organismo vivo, la obra va a responder a su contexto basándose en tomar la cadencia rítmica del movimiento que tiene el polen del olivo en su comportamiento sexual. Gracias a la información compartida por la Dra. Elena Lima Cabello del Department of Biochemistry, Cell and Molecular Biology del CSIC de Granada, hemos podido acceder a un conjunto de vídeos que muestran, a tiempo real e imagen ampliada microscópicamente, el comportamiento morfológico y el desarrollo rítmico temporal de las secuencias de reproducción de estos organismos… Convertimos esta información analógica en señales digitales e incorporamos sus resultados a la lógica constructiva de la obra para dotarla de orden y coherencia.

  1. Producción

La producción Heterocronicidad hace uso de técnicas de inteligencia computacional y visión artificial para detectar la presencia del espectador frente a la obra y cuantificar determinados elementos del espacio que la rodea: movimiento, predominancia de color, atención del espectador a la pantalla e, incluso, nivel de ruido. Estas variables, procesadas computacionalmente, hacen evolucionar la obra en base a un conjunto de reglas previamente definidas, del mismo modo que un organismo vivo crece en respuesta a cambios producidos en su entorno.

Image and video hosting by TinyPic
Figura 1 Heterocronicidad v.1.0.0. Definición e implementación de las diferentes capas que configuran el sistema

  1. Composición

A nivel compositivo, la obra está formada por una serie de imágenes previamente construidas organizadas en capas superpuestas. Estas reproducciones se presentan con diferentes grados de complejidad visual y tamaño (v. fig. 1). Cada una de estas capas se ve afectada por una o varias de las características físicas del espacio donde la obra está instalada: número de personas presentes en el espacio, lugar de ubicación de los observadores, color predominante, ruido ambiente y tiempo de espera. Estas variables de control actúan sobre las capas modificando su geometría (dimensiones, rotación o posición en el conjunto de la obra), opacidad o coloración.

  1. Interactividad

Para conseguir resultados visuales basados en la interactividad, Heterocronicidad utiliza una cámara de vídeo digital y un micrófono de alta sensibilidad. Una aplicación software, desarrollada ad hoc para esta producción, combina ambos sensores para decidir en cada instante el siguiente paso en la evolución de la obra. Denominamos cada uno de estos instantes como latidos de la obra, y su desenlace depende tanto del estado actual del entorno de la exposición como de la inercia de los diferentes elementos que componen el proyecto (velocidad de cambio, «masa», etc).

En cada latido, el software de Heterocronicidad evalúa todas y cada una de las reglas que definen la relación entre las variables del entorno y la dinámica de la obra para actualizar la evolución de cada capa. Las reglas para cada capa pueden ser múltiples, y pueden depender de un conjunto heterogéneo de variables ponderadas por otros parámetros. Por ejemplo, la posición de un espectador que esté observando la obra puede crear un «centro de masa» que actúe desplazando y distorsionando la imagen de una de sus capas, del mismo modo que haría un objeto masivo por efecto de la atracción gravitatoria. Si el espectador no está observando la obra, el efecto puede ser justo el contrario y crear una repulsión. Por otro lado, el color predominante de la ropa de ese espectador puede influir sobre esa u otra capa tintándola ligeramente (v. fig. 2).

Para definir todo este conjunto de reglas, el equipo de trabajo ha desarrollado un lenguaje descriptivo que facilita la comunicación y agiliza la experimentación. Usando este lenguaje, reglas como las del ejemplo anterior pueden expresarse de la siguiente forma:

2: p* -> -g+ La posición de un espectador que no observa incrementa la gravedad con signo contrario en la capa 2.
5: C* -> c+ El color predominante de un espectador que observa la composición tinta la capa 5.

Estas variaciones, si bien se encuentran definidas y cuantificadas con precisión y las reglas a las que responden evolutivamente tienen una descripción formal, dependen, a su vez, de una realidad que es por definición caótica (la reacción del público ante la producción a lo largo del tiempo), por lo que su desenlace es totalmente impredecible. Del mismo modo que el movimiento del polen del olivo en el que se basa la dinámica evolutiva del trabajo, es imposible conocer la apariencia de la obra en un instante determinado si no es a través de la observación directa.

Image and video hosting by TinyPic
Figura 2 Heterocronicidad v.1.0.0. Simulación del sistema interactivo. Identificación de las variables de control del entorno donde está situada la instalación que van a actuar sobre las diferentes capas gráficas que definen la obra: número de espectadores, lugar de ubicación, movimiento y color predominante. A estos elementos perceptivos se les añade el ruido ambiente

El lenguaje computacional utilizado se basa en los siguientes principios:

  1. Definición e identificación de las capas que forman el sistema:
  • Capa 0 – Capa LIENZO – Capa BASE. De manera predeterminada, el tamaño del lienzo define el área visible de la imagen. Cuando se agranda el lienzo, se crea un espacio libre alrededor del contenido de la imagen. Cuando se reduce, el área visible de la imagen se recorta.
  • Capa LETRAS
  • Capa LÍNEAS
  • Capa(s) CÉLULAS
  1. Identificación de las variables de control sobre el entorno o espacio donde se sitúa la obra:
  • Número de personas (a)
  • Lugar de ubicación (b)
  • Color predominante (c)
  • Ruido ambiente (d)
  • Tiempo de espera (e)
  1. Especificación de las órdenes de manipulación o acciones que se pueden realizar sobre cada una de las capas:
  • Opacidad (1)
  • Traslación (2)
  • Rotación de la capa (3): ángulo y sentido de la rotación
  • Escala (4)
  • Color (5)

Cada una de estas variables se puede ver afectada, a su vez, por un grado de manipulación diferente en magnitud o intensidad (v. fig. 3).

Image and video hosting by TinyPic
Figura 3 Heterocronicidad v.1.0.0. Instalación basada en un sistema de reconocimiento de caras. En esta versión del proyecto se han realizado las siguientes acciones sobre las diferentes capas: Capa 0 – Capa LIENZO – Capa BASE (-) (-); Capa LETRAS (a,b,e) y (1,2); Capa LÍNEAS (a,d) y (3,1,4); Capa(s) CÉLULAS (c,d) y (5,1). Mostramos aquí los tres niveles de definición de la obra: espacio interactivo, espacio de representación y espacio computacional

Bibliografía

GROYS, Boris (2014), Volverse público: las transformaciones del arte en el ágora contemporánea, Buenos Aires, Caja Negra.

GROYS, Boris (2016), Arte en flujo: ensayos sobre la evanescencia del presente, Buenos Aires, Caja Negra.

Estética de la representación. Les Demoiselles d’Avignon en la red I y II

Cristina Peláez Navarrete
Universidad de Málaga

Palabras clave: reproducción, Picasso, Les Demoiselles d’Avignon, era digital, formatos.
Keyword: reproduction, Picasso, Les Demoiselles d’Avignon, digital era, format.

Todo pensar es distinguir, clasificar. Todo percibir se refiere a expectativas y por consiguiente a comparaciones

GOMBRICH, Arte e ilusión. 1979.

¿Quién de nosotros no conoce el cuadro Les Demoiselles d’Avignon? Esta pregunta aparentemente sencilla encierra un ardid en su formulación, pues ¿Quién ha estado realmente frente al original? Y siendo o no así, ¿Qué vemos al observar su reproducción? Estas y algunas otras, que veremos a continuación, son las cuestiones que dieron lugar el pasado otoño a la investigación que aquí se presenta acerca de la visibilidad estética de la reproducción sobre la pieza picassiana Les Demoiselles d’Avignon.

La reproducción en la era digital de dicha obra plástica, que podemos ver en los distintos medios de comunicación, varía respecto del original debido a las características intrínsecas al propio medio en el que se reproduce. En el caso de internet, nuestra vía de trasmisión de información por excelencia, las reproducciones de imágenes reales se ven afectadas por el color-luz de las pantallas bidimensionales y por el tamaño, formato y resolución variables de las mismas. Estas y otras características propias del medio digital afectan de tal modo a la reproducción que la diferencian notablemente de su original.

Se presenta esta investigación desde la producción artística siguiendo los dictámenes warburgianos aplicados al estudio de la historia del arte desde una perspectiva de análisis y dialéctica puramente visual —recientemente vinculados con la obra de Picasso por nuevos pensadores—, los estudios que John Berger llevó a cabo en los años 70 sobre imágenes analógicas de relevantes obras artísticas, y el actual esfuerzo de las escuelas y facultades españolas de Bellas Artes porque sea definitivamente reconocida la práctica artística como un sistema de investigación propiamente académico[1]. Entendiendo por una parte, la imagen y no la palabra como elemento comunicador, y por otra, Les desmoiselles d’Avignon como objeto de análisis.

Una investigación cuyo aspecto, exclusivamente visual, pretende hacer reflexionar al receptor sobre la percepción de dicha obra plástica a través del medio digital en su era más plural. Dicha producción artística en formato digital se ha realizado con una triple intencionalidad: en primer lugar cuestionando qué ve el observador cuando se encuentra frente a la reproducción de una obra de arte de estas características, en segundo realizando un planteamiento sobre el estudio de Les desmoiselles d’Avignon desde la imagen sin texto, y por último, reflexionando sobre la producción artística en las facultades de Bellas Artes como investigación.

John Berger justificaba la preponderancia de la pintura original sobre sus reproducciones por su cariz poético y nostálgico. Citando sus propias palabras: «Ni siquiera una reproducción colgada de una pared es comparable en este aspecto, pues en el original, el silencio y la quietud impregnan el material real, la pintura, en el que es posible seguir el rastro de los gestos inmediatos del pintor.» (Berger, 2000: 39). Y es que Les desmoiselles d’Avignon en su original, pintadas por Picasso después de trabajar con cientos de bocetos y numerosas variaciones descargando sus pinceladas de color, sobre las que reposan los años que rezuman una historia pasada y actual desde que fue tocada por sus manos, nunca podrá ser sustituida por ninguna reproducción digital.

  1. Descripción del método
  • Estudio de la situación del cuadro Les desmoiselles d’Avignon en internet: sus reproducciones digitales.
  • Búsqueda bibliográfica: la copia y/o la reproducción frente al original.
  • Planteamiento del tipo de producción artística que trasmita y permita: la investigación de la imagen desde la imagen, la reproducción digital de Les desmoiselles d’Avignon y la investigación desde la práctica artística.
  • Búsqueda de referentes artísticos con obras de características formales o conceptuales similares a la propuesta planteada.
  • Recopilación de material gráfico para la obra.
  • Diseño y ejecución de la obra.
  • Realización de un texto reflexivo sobre la producción y sus resultados.
  1. Datos objetivos

Como sabemos, los resultados de la búsqueda en internet son variables en el tiempo. La búsqueda para recopilar el material gráfico con el que trabajar se realizó entre los días 18 y 21 de noviembre de 2016. Si hoy realizamos esta misma búsqueda, muy probablemente los resultados serán otros a los obtenidos aquel día. El 21 de noviembre de 2016, al teclear en el buscador Les desmoiselles d’Avignon, Google nos indicaba que había 414.000 resultados. Y al teclear el título de la obra en español, Las señoritas de Aviñón los resultados fueron cerca de 76.000. Como ocurrió con las entradas; el número de imágenes también fue claramente mayor al teclear el nombre del cuadro en su idioma original. Por otra parte, en el visor de imágenes de Google crome Les desmoiselles d’Avignon dio un resultado muy heterogéneo en el que las reproducciones objetivas del cuadro se alternaban con imágenes del mismo con manipulaciones varias, así como con fotografías de diversas interpretaciones de la obra picassiana realizadas en distintas disciplinas artísticas (bocetos realizados por Picasso previos a la obra final y/o fotos de salas de museos y de diferentes obras plásticas de otros artistas). Mientras que la búsqueda de Las señoritas de Aviñón mostró una pantalla mucho más homogénea en la que dominaba claramente las reproducciones objetivas del cuadro, sin manipulaciones que añadieran una información visual distinta de la obra original.

Image and video hosting by TinyPic
Figura  1  Aspecto del visor de Google crome el 21 de noviembre de 2016 con el parámetro de búsqueda Les demoiselles d’Avignon

Image and video hosting by TinyPic

Figura  2 Vista del buscador de imágenes de Google del día 21 de noviembre de 2016 al escribir en el buscador Las señoritas de Aviñón

2.1 Selección de las imágenes

  • Parámetro de selección de la obra completa: únicamente se han seleccionado aquellas imágenes que pretendían mostrar la obra completa. Se han descartado por tanto todas las que mostraran solo un fragmento de la misma.
  • Parámetro de selección de reproducciones objetivas: se han seleccionado exclusivamente aquellas imágenes no manipuladas. Se desecharon por tanto, las que habían sido intervenidas con intención de mostrar algo diferente al propio cuadro.

Image and video hosting by TinyPic

Figura 3 Tipo de imágenes descartadas por no ser una reproducción objetiva del cuadro original

  1. Obra

Descripción de la propuesta: producción díptica en formato audiovisual.

3.1 Pieza I

  • Descripción técnica: vídeo en pantalla de plasma de formato 4:3 o 16:9 archivo MP4 sin audio, de 3 minutos de duración con reproducción en bucle. Archivo contenido en un pen.
  • Descripción del contenido: reproducción secuencial de 390 imágenes recogidas de internet entre el 18 y el 21 de noviembre de 2016, que representan objetivamente, esto es sin manipulaciones ni recortes el cuadro Les desmoiselles d’Avignon.

3.2 Pieza II

  • Descripción técnica: proyección de una imagen fija sobre una pantalla pintada en la pared. Se requiere proyector, una distancia concreta entre el proyector y la pared y una superficie de pared de 243,9×233,7 cm pintada en blanca y enmarcada con color neutro. Gris 30%.
  • Tamaño distinto al original (pequeño formato frente a las medidas originales de la obra)Descripción del contenido: proyección fija de una reproducción al tamaño del original del cuadro Les desmoiselles d’Avignon. La reproducción seleccionada para esta obra ha sido recogida de internet.

Image and video hosting by TinyPic
Figura 4 Ejemplo de imágenes reproducidas en el vídeo

Image and video hosting by TinyPic
Figura 5 Esquema del montaje: proyección y pantalla de plasma

Image and video hosting by TinyPic
Figura 6 Espacio pintado de la pared

Image and video hosting by TinyPic
Figura 7 Imagen seleccionada para ser proyectada en pared al tamaño del cuadro original

 Conclusiones

4.1 Incongruencia en las reproducciones digitales respecto al original

4.1.1 General en todas las reproducciones de web:

  • Tamaño distinto al original (pequeño formato frente a las medidas originales de la obra)
  • Soporte distinto al original (pantalla frente a lienzo. Pérdida de la textura táctil de la superficie del lienzo)
  • Materia distinta al original (color luz frente a color matérico. Desaparición además de la textura táctil del óleo)

4.1.2 Incongruencia entre las reproducciones:

  • Variaciones en las proporciones (deformaciones y/o recortes). Con frecuencia encontramos distintos cortes en el alto o en el ancho de la imagen, así como deformaciones de la propia imagen de manera que las figuras quedan alargadas o ensanchadas
  • Variaciones en la resolución, que en términos de imagen implica entre otros, diferencias en la pérdida de textura visual y de detalles de la imagen.
  • Color: variaciones de color, tono y contraste entre las reproducciones.

4.2 Sobre la producción artística

Como dice el título, la obra versa sobre la estética de la representación en internet del cuadro Les desmoiselles d’Avignon: la suma de sus reproducciones, no da como resultado más información del original. Tampoco, el llevar una de estas representaciones al tamaño del original trae consigo más proximidad al mismo. Por el contrario: ambas representaciones reafirman la diferencia entre la obra real y sus representaciones en la web.

Podemos reproducir su imagen, podemos incluso clonarla creando copias casi exactas utilizando lienzos de la época, oleos de la misma marca y color que utilizó Picasso, podemos seguir sus trazos superficiales incluso sus trazos más profundos.

Es posible que obtengamos una imagen exactamente igual, un objeto idéntico, pero nunca será la obra original.

Bibliografía

BERGER, John (2000), Modos de ver, Barcelona, Gustavo Gili.

[1] Jornadas de Producción en las Bellas Artes: La producción artística como investigación, Facultad de Bellas Artes de Málaga, 2016. También en el Acta de la Conferencia de Decanos de Facultades de Bellas Artes del Estado celebrada en Málaga en mayo de 2017, p.5, se muestra la preocupación al respecto.

Mapeado digital del espacio ficcional en la novela bizantina española

José Luis Losada Palenzuela
Universidad de Wrocław

Palabras clave: mapas, Geografía literaria, SIG, novela bizantina, R
Keywords: Maps, Literary Geography, GIS, Byzantine Novel, R

 

  1. Introducción

En nuestra comunicación se abordan los límites metodológicos y la validez, como instrumento de análisis, de la visualización digital del espacio narrativo de la ficción. La reflexión deriva de la elaboración de un mapa digital del espacio ficcional, para el que nos hemos servido de la extracción automática de lugares (Stanford NER, Apache OpenNLP), de la georreferenciación (QGIS), de la geolocalización (Geonames, Pelagios, Google Maps), del tratamiento de datos (R) y de su visualización en mapas (Leaflet for R)[1].

El corpus se adscribe al género de la novela bizantina (helenizante) española, cuyo cronotopo está marcado con viajes, travesías marítimas, exotismo, etc. A esta característica espacial se añade la influencia de la cartografía histórica: mapas, p. ej., como los de A. Ortelius (1527-1598), sirvieron de referente cartográfico y topográfico en la configuración narrativa.

Aunque podremos concluir que la representación sobre un mapa de un espacio literario conlleva limitaciones a veces insalvables, más aún bajo la perspectiva crítica de los SIG, una visualización asociada a la superposición de mapas históricos podría servir para añadir conocimiento al análisis del espacio literario.

  1. Marco metodológico

La Geografía (Cartografía, Topografía) literaria se encuentra en un cruce interdisciplinar entre Teoría literaria, Geografía, Cartografía digital y análisis espacial (Piatti/Hurni, 2011; Piatti, 2016). Dejamos fuera la Geografía literaria autorial (datos literarios relacionados con autores, archivos, lugares de publicación) y nos centraremos en la Geografía literaria ficcional: la visualización digital de los espacios de la ficción; a su vez, dentro de esta, se toman en cuenta tanto el análisis cuantitativo como la visualización de lugares e itinerarios presentes en las novelas[2]. Seguimos la línea metodológica del trabajo de B. Piatti (2008), aunque se toma en cuenta el pionero trabajo de F. Moretti (1998), que se sirve de mapas como instrumento de interpretación en ambos casos.

  1. El mapa digital de la novela bizantina

La novela de Miguel de Cervantes, Los trabajos de Persiles y Sigismunda (1617), supone un cambio importante en la clasificación espacial del género, pues a diferencia del modelo griego de Heliodoro localizado en el Mediterráneo oriental Cervantes recurre a protagonistas provienes de las regiones nórdicas que hace transitar hacia el Sur en su peregrinaje amoroso. Las secuelas cervantinas (J. E. de Zúñiga, E. S. de Mendoza) parecen imitar esta localización al situar sus acciones en Suecia, Moscovia, Inglaterra o Polonia, aunque no prescinden de la ambientación mediterránea. La falta de estudios e incluso de ediciones críticas de algunas de estas continuaciones dejan muchos aspectos por clarificar, entre otros, el análisis del espacio de la aventura o la interdependencia entre modelos e imitadores (Losada, 2017). Nos planteamos, pues, si la visualización sobre un mapa puede arrojar luz o plantear alguna pregunta sobre una distribución espacial que caracterice al género.

El corpus se ha limitado, para este caso, a unas pocas obras en las que se han marcado los lugares usando la extracción y geolocalización automática, el refinado manual y la interpretación filológica, porque, aunque las localizaciones ficcionales puedan contar con una referencia en el geoespacio y aunque obviemos, por ahora, la ingenua presuposición que reduce la ficción a acciones inventadas en lugares reales (Stockhammer, 2013), son multitud los lugares históricos, inventados, de referencia indirecta, de unión de lugares ficticios y reales, desplazados, fantásticos, explícitamente imprecisos, etc. (Reuschel/Hurni, 2011).

La agrupación (clustering) muestra similitudes y diferencias según el espacio predominante (J. E. de Zúñiga, en el Mediterráneo), sin embargo la visualización no tiene en cuenta, por ejemplo, si se trata de lugares inmersos en la acción, evocados o constituyen el trasfondo de un excurso erudito (v. fig. 1).

Por otro lado, la coherencia espacial también define el grado de verosimilitud de estas novelas. Por ejemplo, en J. E. de Zúñiga, que la protagonista realice una travesía marítima desde Polonia hasta el Congo por el Mediterráneo puede parecer, desde luego, un itinerario imposible, así que proyectado este sobre un mapa, la inverosimilitud parece saltar a la vista. Algunos de estos aparentes galimatías espaciales se fundamentan, sin embargo, en el uso de fuentes geográficas textuales y cartográficas que determinan su organización narrativa (Stockhammer, 2007; Dünne, 2011; Losada, 2017). Si georreferenciamos un mapa histórico de Ortelius y lo superponemos digitalmente a la visualización del itinerario (con desplazamiento mínimamente vectorial) y de los lugares exclusivamente de la acción, veremos cómo la distribución de la topografía construida literariamente en el Mediterráneo occidental cobra sentido (el Congo se representa en el inset; es evidente también que esta localización literaria no corresponde con la localización en el geoespacio).

Image and video hosting by TinyPic
Figura  1 Agrupación (clustering) de lugares en la novela bizantina. (CC BY-SA 4.0)

Por otro lado, la coherencia espacial también define el grado de verosimilitud de estas novelas. Por ejemplo, en J. E. de Zúñiga, que la protagonista realice una travesía marítima desde Polonia hasta el Congo por el Mediterráneo puede parecer, desde luego, un itinerario imposible, así que proyectado este sobre un mapa, la inverosimilitud parece saltar a la vista. Algunos de estos aparentes galimatías espaciales se fundamentan, sin embargo, en el uso de fuentes geográficas textuales y cartográficas que determinan su organización narrativa (Stockhammer, 2007; Dünne, 2011; Losada, 2017). Si georreferenciamos un mapa histórico de Ortelius y lo superponemos digitalmente a la visualización del itinerario (con desplazamiento mínimamente vectorial) y de los lugares exclusivamente de la acción, veremos cómo la distribución de la topografía construida literariamente en el Mediterráneo occidental cobra sentido (el Congo se representa en el inset; es evidente también que esta localización literaria no corresponde con la localización en el geoespacio).

Para el Mediterráneo oriental, si proyectamos sobre el mapa las fronteras históricas del Reino de Polonia y comparamos con la distribución de otros lugares de la acción (Constantinopla, Mar Negro, Tartaria) la visualización plantea la pregunta de si el autor pudo construir la posibilidad ficcional de un acceso a las costas de Polonia por el Mediterráneo, que se puede responder con el análisis histórico-filológico (v. fig. 2).

Image and video hosting by TinyPic
Figura 2 Itinerario, mapa georreferenciado de Ortelius y fronteras históricas del Reino de Polonia.(CC BY-SA 4.0)

  1. Conclusiones

Aunque la popularización de las herramientas SIG y el uso de diversas tecnologías digitales nos está facilitando la elaboración de mapas digitales de geografías literarias, estos acarrean deficiencias metodológicas que la crítica no ha obviado (Crampton, 2010). Los experimentos de filólogos convertidos en cartógrafos aficionados se han venido incluso a llamar Literary Neogeography (Richterich, 2011: 238). Tampoco los trabajos de mapeado literario de F. Moretti se libraron de las críticas (Moretti, 2007).

La precisión del SIG choca con el conocimiento teórico sobre las características de la ficción. Sabemos desde los estudios de M. Bachtin o Y. Lotman que el tiempo y el espacio ficcionales siguen sus propias reglas y deben formar parte de la secular y compleja dinámica entre realidad y ficción. Las marcas explícitas, por ejemplo, referidas a días, noches, millas, leguas o fronteras sirven para definir la deixis interna del recorrido y se limitan, en su mayoría, a señalar un sentido de lejanía o cercanía sin tener necesariamente una contrapartida en el referente real (Lotman, 1998). No tener en cuenta el carácter ficcional del espacio y los lugares en la literatura (incluso aunque puedan tener nominalmente un referente real) lleva a una distorsión de la interpretación, por lo que algunos consideran que, por definición, no son cartografiables (Stockhammer, 2007).

No es menos cierto, sin embargo, que la geografía literaria varía enormemente dependiendo del carácter ficcional del género, de la obra, del periodo, del autor. Podemos distinguir literatura con una mayor o menor geospacialidad, y por tanto con mayor o menor posibilidad de geolocalización. Será el corpus el que nos establezca los límites de su mapabilidad.

El mapa ficcional debe reflexionar, en cualquier caso, sobre el potencial analítico que aporta a la comprensión del corpus, del género o del texto para no quedarse en un simple complemento ornamental (Moretti, 1998; Stockhammer, 2013).

Bibliografía

CRAMPTON, J. W. (2010), Mapping. A Critical Introduction to Cartography and GIS, Malden, Wiley-Blackwell.

JÖRG, D. (2011), Die kartographische   Imagination: Erinnern, Fink, München, Erzählen und Fingieren in der Frühen Neuzeit.

LOSADA PALENZUELA, J. L. (2017), «Desplazamiento de la imagen septentrional: Polonia en La historia de las fortunas de Semprilis y Genorodano», en EHRLICHER, H. & DÜNNE, J. (eds.), Ficciones entre mundos. El Persiles de Cervantes y las novelas de aventuras           áureas, Kassel, Reichenberger, pp. 253-273.

LOTMAN, Y. (1988), Estructura del texto artístico, Madrid, Istmo.

MORETTI, F. (1998), Atlas of the European Novel. 1800-1900, London, New York, Verso.

MORETTI, F. (2007), Graphs, Maps and Trees. Abstract Models for Literary History, London, New York, Verso.

PIATTI, B. (2008), Die Geographie der Literatur. Schauplätze, Handlungsräume, Raumphantasien, Wallstein-Verlag, Göttingen.

PIATTI, B., HURNI, L. (2011), «Editorial. Cartographies of Fictional Worlds», The Cartographic Journal. Cartographies of Fictional Worlds, vol. 48, n.º 4, pp. 218-223.

PIATTI, B. (2016), «Mapping Fiction. The Theories, Tools and Potentials of Literary Cartography», en COOPER, D., DONALDSON, C., MURRIETA-FLORES, P. (eds.), Literary Mapping in the Digital Age, New York, Taylor & Francis, pp. 88-101.

REUSCHEL, A. K., HURNI, L. (2011), «Mapping Literature: Visualisation of Spatial Uncertainty in Fiction», The Cartographic Journal. Cartographies of Fictional Worlds, vol. 48, n.º 4, pp. 293-308.

RICHTERICH, A. (2011), «Cartographies of Digital Fiction: Amateurs Mapping a New Literary Realism», The Cartographic Journal. Cartographies of Fictional Worlds, vol. 48, n.º 4, pp. 237-249.

STOCKHAMMER, R. (2007), Kartierung der Erde: Macht und Lust in Karten und Literatur, München, Fink.

STOCKHAMMER, R. (2013), «Exokeanismós: the (un)mappability of literature», Primerjalna Knjizevnost, vol. 36, n.º 2, pp. 123-138.

[1] Stanford NER: ; Apache OpenNLP ; QGIS ; Geonames ; Pelagios ; ggmap: ; R: , ; Leaflet for R: .

[2] Véanse algunos proyectos significativos: Mapping St Petersburg. Experiments in Literary Cartography ; Mapping Dante. A Study of Places in the Commedia ; Authorial London. The city in the lives and works of its Writers , que combina la geografía autorial y ficcional; ToposText , que combina textos históricos, mitológicos, filosóficos y literarios, pero de interés para nuestro caso por mapear los lugares de la novel griega de Heliodoro; Ein literarischer Atlas Europa , apoyado en una base de datos, aunque sin cartografía interactiva.

Aracne: estudio de la variación lingüística en la prensa española entre 1914 y 2014

Elena Álvarez Mellado
Fundéu BBVA, LIND-UNED

Leticia Martín-Fuertes Moreno
Fundéu BBVA

Palabras clave: riqueza lingüística, riqueza léxica, densidad léxica, lingüística de corpus, variación diacrónica
Keywords: linguistic richness, lexical richness, lexical density, corpus linguistics, diachronic change

 

  1. Introducción y objetivos

¿Cómo ha cambiado la lengua de la prensa en los últimos cien años? ¿Es más rico el lenguaje periodístico de hoy que el de hace cien años? ¿Qué palabras eran más frecuentes antes que ahora? ¿Qué nos dice la variación de vocabulario de los cambios históricos y políticos que ha experimentado la sociedad española a lo largo del último siglo? Aracne es un proyecto de lingüística de corpus que tiene como propósito medir cuantitativamente cómo ha evolucionado el lenguaje de la prensa española entre 1914 y 2014, con especial atención a los rasgos de riqueza léxica. En esta intervención presentamos las conclusiones y cuestiones metodológicas relativas al proyecto.

  1. Material y método

El proyecto ha consistido en la selección, procesamiento y análisis de un corpus de dos millones de palabras procedentes de cuatro diarios españoles que han venido publicándose de forma ininterrumpida desde 1914 a 2014 (La Vanguardia, El Norte de Castilla, Heraldo de Aragón, Diario de Mallorca). Para las mediciones de riqueza y frecuencia se ha considerado la década como la unidad temporal mínima sobre la que trabajar. La selección de ejemplares para confeccionar el corpus se ha hecho a través de un muestreo aleatorio para garantizar una representación no sesgada de las distintas décadas, meses y días de la semana.

La manera de proceder para llevar a cabo el estudio ha sido:

  1. Obtención de los ejemplares seleccionados en formato imagen digital de las hemerotecas de los medios colaboradores.
  2. Procesamiento mediante tecnología OCR para extracción del texto del ejemplar.
  3. Supervisión humana (asistida por ordenador mediante el uso de macros, corrección semiautomática y expresiones regulares) de los textos producidos por el OCR para garantizar una calidad aceptable de los textos y separación del texto continuo del ejemplar producido por el OCR en artículos.
  4. Lematización y procesamiento de los textos mediante tecnología de Procesamiento de Lenguaje Natural (PLN).
  5. Medición de las variables (variación léxica, densidad y complejidad de los artículos).
  6. Cálculo de medias y agrupación de los datos en intervalos de tiempo.
  7. Visualización de los datos y análisis.
  1. Medición de los datos

¿Cómo se mide la riqueza lingüística? ¿Es posible establecer de forma objetiva y numérica las diferencias de complejidad lingüística entre dos textos? Para observar la variación de la riqueza de los artículos del corpus a lo largo del tiempo se han medido y comparado tres rasgos que se consideran indicadores de la complejidad lingüística de un texto  (Johansson, 2008: 61–79): la variación léxica (representada por la relación entre palabras distintas y palabras totales o types/tokens ratio TTR), la densidad léxica (número de palabras semánticamente plenas en relación a las palabras totales del texto) y el nivel de sofisticación lingüística (complejidad léxica y gramatical de los textos).

  1. Para la variación léxica se han considerado dos índices, ambos inspirados en la variable tradicional TTR (types/tokens ratio, es decir, palabras distintas entre palabras totales), pero en una propuesta ligeramente modificada para adaptarlos mejor al procesamiento de textos en español y al propósito del proyecto. Puesto que la variable TTR no permite comparar la riqueza de textos de distinta longitud, las mediciones y comparaciones de nuestros índices TTR (o sus modificaciones) se han hecho sobre artículos de extensión semejante. Por otro lado, la variable TTR tiene limitaciones muy evidentes al aplicarla a lenguas flexivas como el español, ya que la medición tradicional del TTR considera como tipos distintos (types) formas distintas de una misma palabra (plurales, femeninos, conjugaciones). El cálculo del TTR en el proyecto, por lo tanto, se ha realizado considerando las formas lematizadas de las palabras, no la diferenciación tradicional de types y tokens. Consideramos que esta aproximación es más apropiada que la convencional porque recoge de una manera más fiel el funcionamiento morfológico del español y lo que se considera variación léxica.
  2. El segundo rasgo que se ha tenido en cuenta ha sido la densidad léxica, medida como la relación entre el número de palabras con categoría semántica (nombres, adjetivos, verbos, adverbios acabados en -mente) y palabras totales del texto. Los valores de la densidad léxica oscilan entre 0 y 1, tendiendo a 1 los textos muy densos (es decir, con una alta proporción de palabras semánticamente plenas) y a 0 aquellos en los que aparecen muchas palabras más gramaticales o estructurales.
  3. Por último, se ha observado la complejidad lingüística de los textos, medida como el grado de elaboración léxica y gramatical de los artículos procesados (longitud de las frases, frecuencia y nivel de complejidad de las palabras, uso de tiempos verbales, elaboración sintáctica).
  1. Resultados y conclusiones

A tenor de los resultados obtenidos, se puede observar que los tres rasgos medidos para observar la variación de la riqueza lingüística a lo largo del corpus se mantienen llamativamente estables en los cien años que comprende el estudio (v. figs. 1, 2, 3 y 4)[1].

Image and video hosting by TinyPic
Figura 1 Riqueza léxica media de artículos por intervalo de palabras

Image and video hosting by TinyPic
Figura 2  Riqueza léxica media (categorías semánticas) de artículos por intervalo de palabras

Image and video hosting by TinyPic
Figura  3 Densidad léxica media de artículos por intervalo de palabras

Image and video hosting by TinyPic
Figura 4 Complejidad (semántica, sintáctica y conceptual) de artículos por intervalo de palabras

Si bien el objetivo fundamental de proyecto ha sido medir la evolución de la riqueza lingüística, el análisis del corpus permite observar otros rasgos relacionados con los cambios históricos en el lenguaje de la prensa, como la evolución que han sufrido los adjetivos en grado superlativo (-ísimo), la evolución del modo subjuntivo, el espectacular desplome de los tratamientos de persona «don» y «señor» o la frecuencia relativa de algunas palabras cultural e históricamente relevantes como «guerra», «peseta», «fanega», «comunismo», «alemán», «nuclear» o «europeo»[2].

Estas gráficas de evolución de la frecuencia de palabras relacionadas con los avatares culturales e históricos de los últimos cien años permiten asomarse al léxico que caracterizó cada década. El perfil de picos y valles que dibuja la frecuencia léxica constituye una radiografía de las hemerotecas españolas, es un reflejo de la propia historia de España y Europa a lo largo de los últimos cien años e invita a atisbar cómo era la sociedad que producía y redactaba estas noticias.

Financiación

Proyecto Aracne es un proyecto impulsado por la Fundación del Español Urgente (Fundéu) y financiado por el banco BBVA.

Bibliografía

JOHANSSON, Victoria (2008), «Lexical diversity and lexical density in speech and writing: a developmental perspective», Working papers in Linguistics Lund University, n.º 53, pp. 61–79.

[1] Gráficas y visualizaciones disponibles en <http://www.fundeu.es/aracne/riqueza.html>.

[2] Gráficas y visualizaciones disponibles en <http://www.fundeu.es/aracne/gram.html> y <http://www.fundeu.es/aracne/lexico.html>.

What does Delta see inside the Author?: Evaluating Stylometric Clusters with Literary Metadata

José Calvo Tello
University of Würzburg

Palabras clave: estilometría, metadatos, novelas, Edad de Plata
Keywords: stylometry, metadata, novels, Edad de Plata

 

Abstract

The stylometric research doesn’t know the exact effect of many aspects of the texts while designing the corpus; for instance: genres, subgenres, narrative perspective or other literary aspects like form, setting or period. In this proposal I use several corpora, each from a single Spanish author between the 19th and the 20th Century, annotated with fine-grade metadata (about period, subgenre and literary information), and apply one of the most frequent methods in stylometry: Delta. Since the author signal is already neutralised in the composition of the corpora, the results allow us to understand better which aspects match better the subclusters of a dendrogram based on the Delta values. What does Delta see inside the author?

1. Burrows’ Delta: the style of the author… and something else

Since Burrows proposed Delta (2002), it has become one of the most used methods of the Digital Humanities for authorial recognition. Many researchers have already pointed out that other aspects (signals) can affect its results, like genre (Burrows, 2002: 271; Schöch, 2013), narrative perspective or period (Hoover, 2004: 455). For that reason corpora tend to be created trying to neutralise them.

Hoover (2014), and Jannidis and Lauer (2014) have used Delta with corpora of a single author in order to analyse the internal structure of his works. In this proposal I am using a similar strategy but using eight corpora of a single author (Baroja, Bazán, Blasco, Galdós, Miró, Pereda, Valdés and Valle) and evaluating the results against metadata. These corpora include 170 novels (1.2 million words) encoded in XML-TEI. A teaser of this corpus is already available online as textbox (Schöch et al., 2015). Specific information about these texts, and also the Python scripts implemented for this proposal will be available in a GitHub repository.

Several relevant aspects were annotated as metadata in the XML-TEI header of each novel:

  1. «subgenre»: a closed and structured model for the subgenre in which a text belongs to several subgenres (a novel could be historical, sentimental and adventure at the same time)
  2. «subgenre-labels»: the labels of the genre used by different actors (history of literature, editor, cover)
  3. «literary aspects»: the values about literary information that could be essential for specific subgenres (socio-economic level of the protagonist, happy end, setting and period of the action…)
  4. «period»: different ways of modelling the moment in which the text was published

2. Methodology explained with an Example: Valle-Inclán

Let us see with a single author (Valle-Inclán) the steps that I have followed:

  1. The Delta values of the texts within the eight authorial subcorpora (plaintext with paratexts and tags removed) are calculated using stylo (Eder, Kestemont and Rybicki, 2016). A dendrogram using Ward is created and the main subclusters are detected automatically
  2. For each author, the homogeneity for each category of metadata is calculated
  3. These values are summarized using the mean of each category for the different authors

The typical representation of clusters in the stylometry are the dendrograms. The figure 1 shows a dendrogram based on the novels of Valle. This dendrogram is converted (using the Python library ScyPy) in a flat cluster structure that doesn’t represent any more the hierarchy of the relations between the texts but only represents to which cluster belongs each text.

Image and video hosting by TinyPic
Figure 1 Classic Delta Dendrogram of Valle-Inclán’s work

In the case of Valle, there are four different clusters: the works about the Carlista war, the Sonatas, the esperpentos, and the two novels that don’t fit in any of this categories. Changing the name of the files we can already have a glimpse about other information from these subclusters:

Image and video hosting by TinyPic
Figure 2 Same dendrogram showing narrative perspective, social level of the protagonist, group of texts and subgenre

The third dendrogram (group of texts) colours almost perfectly the four subclusters, while the second dendrogram (social level of the protagonist) mix the values high and medium levels in two subclusters. To quantify this differences I have used the metric of homogeneity (Rosenberg and Hirschberg, 2007: 411), implemented in the Python library scikit-sklearn; from a ground truth (in this case the metadata) and the belonging to different subclusters, this metric gives back a number between 0.00 and 1.00 (perfect homogeneity).

After testing the homogeneities of different versions of Delta (Classic, Eder and Cosine) and different amounts of MFW (from 500 to 10 000) with all the texts from the eight authors, the parameters with best results were Cosine Delta and from 500 to 2000 MFW, which are the parameter used in the rest of this proposal.

3. Results

Image and video hosting by TinyPic
Image and video hosting by TinyPic

Figure 3 Homogeneities of subgenre and bar chart of the mean

Now that the parameters for Delta were defined, let us analyse the different kind of metadata, starting with subgenre. Below the table, the bar chart represents the column of the mean of each metadata in the different authors; the colour of the bars and the grey vertical lines represent the position of this value in a box plot;  the red vertical line represents the base line for random clusters:

As we see, the value for dialogue novels is an outlier. There are other five subgenre which are clearly higher than the baseline: historical, war-novel, adventure, memoir and naturalist.

We can also test the information about the genre from other sources, like the cover of the book (label and subtitle) or the history of literature (group of text and subgenre):

Image and video hosting by TinyPic
Image and video hosting by TinyPic
Figure 4 Homogeneities genre-labels of different authors and bar chart of the mean

All these values are higher than the base line. The group-text, a category that mix period and genre of the author as we have already seen in the example of Valle, gets the higher homogeneity in this table, being an outlier. The methodology of this propsal reproduces a similar way of typical grouping in the studies of literature: taking in consideration only the books of a single author and then using a mix of chronological and formal aspects (signals) to group them together. These results support the use of Delta for analysing the internal structure of the corpus of a single author.

One of the most important questions in this work is to know which specific literary aspect match better the subclusters of Delta. Because this information has very different nature (nominal, ordinal, interval, binary, discrete, continuous), each one has been recategorised as binary information using central tendencies as mode and median. The results are:

Since we already have seen that the dialogue novel is an outlier, the results about the form are not a surprise. On the contrary, the results about the approximation of canon are unexpected, after which five literary aspects show clearly higher values than the baseline: narrative perspective, period, different formalisations of territory in which the action takes place, social level of the protagonist and representation (realistic vs. non realistic).

Image and video hosting by TinyPic
Image and video hosting by TinyPic

Figure 5  Homogeneities of literary aspects

Finally I have evaluated the clusters using different formalisation about the publication date:

Image and video hosting by TinyPic
Image and video hosting by TinyPic
Figure 6 Homogeneities of publication date

The highest value about this kind of information is a binary value about the first and the second period or every author, using information from the history of literature (Pedraza Jiménez & Rodríguez Cáceres, 1983 and 1987; Rubio Cremades, 2001; Mainer, 2009). This value is also higher than any subgenre with the exception of dialogue novels, which points out that the difference between periods from the same author is stronger at the lexical level than the difference between subgenres of the same author. It is surprising that a method mainly used for author attribution distinguish also so well what in the language is many times expressed as different authors: the first/young Valle, the late/mature Galdós, etc.

4. Conclusions

The most important results of this proposal are:

  • Delta can be used to analyse groups of texts of a single author to understand better the internal structure of his/her corpus
  • Historical, adventure, memoir, naturalist and war-novel and (specially) dialogue novel are the novel subgenres that fit better the subclusters of the dendrogram of Delta
  • Form, narrative perspective, period and territory of the action, and social level of the protagonist are literary aspects that explain stylometric results when using novels, therefore its metadata should be collected
  • The results of Delta fit publication period of the author better than subgenre
  • After erasing the author signal from the corpora composition, the strongest signal are in this order: form, period and the subgenres mentioned above

Financing

This research has been funded by the German Ministry for Education and Research (BMBF) with the identifier: 01UG1508.

Bibliografía

BURROWS, John (2002), «“Delta”: A Measure of Stylistic Difference and a Guide to Likely Authorship», Literary and Linguistic Computing vol. 17, n.º 3, pp. 267 –287.

EDER, Maciej, KESTEMONT, Mike, RYBICKI, Jan Rybicki (2016), «Stylometry with R: A Package for Computational Text Analysis», The R Journal, vol. 16, n.º 1, pp. 1–15.

HOOVER, David L. (2004) «A Conversation Among Himselves: Change and the Styles of Henry James», In HOOVER, David L., CULPEPER,  Jonathan, and O’HALLORAN, Kieran (eds.), Digital Literary Studies, New York & London, Routledge, pp. 90–119.

— (2004), «Testing Burrows’s Delta», Literary and Linguistic Computing, vol. 19, n.º 4, pp 453 –475.

JANNIDIS, Fotis, & LAUER, Gerhard (2014), «Burrows’s Delta and Its Use in German Literary History. Distant Readings. Topologies of German Culture», en ERLIN, Matt & TATLOCK, Lynne (eds.), The Long Nineteenth Century, Rochester, Camden House, pp. 29–54.

MAINER, José-Carlos (2009), La Edad de Plata (1902-1939). Ensayo de Interpretación de Un Proceso Cultural, Madrid, Cátedra.

PEDRAZA-JIMENEZ, Felipe B., & RODRÍGUEZ CÁCERES, Milagros (1983), Manual de literatura española. 7: Época del realismo, Pamplona, Cénlit Ediciones.

—, (1987) Manual de Literatura Española. 9: Generación de Fin de Siglo: Prosistas, Pamplona, Cénlit Ediciones.

SCHÖCH, Christof (2013), «Fine-Tuning Our Stylometric Tools: Investigating Authorship and Genre in French Classical Theater», Digital Humanities 2013: Conference Abstracts, Lincoln, UNL.

SCHÖCH, Christof et al. (2015), The CLiGS Textbox, Würzburg, University of Würzburg.

ROSENBERG, Andrew, & HIRSCHBERG, Julia (2007), «V-Measure: A Conditional Entropy-Based External Cluster Evaluation Measure», Association for Computational Linguistics, Prague, pp. 410–420.

RUBIO CREMADES, Enrique (2001), Panorama crítico de la novela realista-naturalista española, Madrid, Editorial Castalia.

Traducciones inglés-español y español-inglés en museos y centros de arte de Nueva York y Málaga: un estudio basado en corpus

Jorge Leiva Rojo
Universidad de Málaga

Palabras clave: textos museísticos, traducción, lingüística de corpus, textos paralelos, alineación
Keywords: museum texts, translation, corpus linguistics, parallel texts, alignment

  1. Introducción

La comunicación tiene como objeto principal plantear abordar cuestiones relativas a un proyecto cuyo objeto principal de estudio es el análisis de las traducciones de textos museísticos de las ciudades de Nueva York y Málaga. Se presentarán las líneas principales en las que se fundamenta el proyecto y los principales resultados de la investigación hasta la fecha.

  1. Museos y textos: selección de escenarios

En lo que respecta a la elección de estas ciudades para el ámbito de estudio, se ha elegido la ciudad de Nueva York por varios motivos, entre los que destaca la altísima oferta cultural en cuanto a número de museos y centros de arte —En Wright (2016 [1981]: 599‑600) se identifican 77 instituciones museísticas—, que se ve correspondida con unas cifras de visitantes apabullantes: más de 58 millones de visitantes a la ciudad en 2015, con México y España en los puestos 9.º y 10.º respectivamente en cuanto a países de origen de sus visitantes extranjeros[1]. A mayor abundamiento, uno solo de sus museos, el Metropolitan Museum of Art —el más visitado en la ciudad de Nueva York y el tercero más visitado del mundo[2]— recibió en 2016 a 6,7 millones de visitantes, de los cuales un 41 % fueron extranjeros[3]. El papel que desempeña el español en ese país, además, tiene una relevancia de sobra conocida. Sirva como ejemplo una cifra que es harto ilustrativa: en 2016, la población hispana, que es en su mayoría hablante de español, ascendía al 27 % en la ciudad de Nueva York, un 10 % más que la media de todo el país (Moreno Fernández y Otero Roth, 2016: 86).

Razones similares a las expuestas, aunque con unas cifras mucho más modestas, han llevado a elegir la ciudad de Málaga como escenario para el estudio de los textos escritos originariamente en español y traducidos al inglés. En cuanto a las cifras de visitantes, visitaron la ciudad en 2016 casi 4 millones de personas, con una gran importancia del turismo internacional, que en el ámbito europeo domina la nacionalidad británica y, en el del resto del mundo, la estadounidense[4]. La visita a museos es la segunda actividad que más realizan los turistas en Málaga (más del 51 %), destacando del total de 36 museos de la ciudad el Museo Picasso Málaga, que en 2016 recibió más de 550 000 visitantes[5]. Las últimas cifras de las que se tiene constancia que desglosen por nacionalidades (año 2013) refieren un predominio del público extranjero en este museo: el 64 %, con el mercado británico en primer lugar[6].

Se considera, además, interesante para el estudio no solo la pujanza de ambas ciudades en el contexto cultural en general y museístico en particular, sino también la contraposición entre uno y otro escenario —Nueva York, ciudad museística más consolidada, frente a Málaga, ciudad museística de reciente creación—.

  1. Museos y traducción

El tipo de texto que se presente estudiar, los textos museísticos, a diferencia de otros ámbitos relacionados, caso de la traducción turística, no cuenta hasta la presente con numerosos estudios o investigaciones relevantes. Así lo pone de manifiesto Guillot (2014), quien afirma que el «[r]esearch interest in museum communication has been limited in translation studies and linguistics, with a few notable exceptions (e.g. Neather 2005, 2008; Jiang 2010; Sturge 2007; Ravelli 2006, for sources in English)». A los trabajos que cita Guillot pueden añadirse dos más de Neather (2009, 2012), así como algunos trabajos adicionales: Jiménez Hurtado et al. (2012), en referencia a traducción e interpretación y accesibilidad en museos; Miklošević (2015), sobre traducción en un museo de Liubliana (Eslovenia); y Valdeón (2015), sobre la traducción de lo colonial en museos estadounidenses. Esta ausencia tan significativa es llamativa a pesar de que la traducción museística es relevante por partida doble: no solo como actividad y práctica profesionales, sino también como objeto de investigación cultural en tanto que actividad que en ocasiones se encuentra a medio camino entre la mediación intercultural y la apropiación (Sturge, 2007). Si los estudios sobre traducción en museos son escasos, más reducido es el número de trabajos en los que se abordan cuestiones de corte cuantitativo (estudios de calidad) —Neather (2008, 2009) o Jiang (2010)— o que emplean corpus para analizar textos museísticos traducidos: solo se tiene constancia de dos aportaciones —el propio trabajo de Guillot (2014) y la contribución de Valdeón (2015)—, aunque en ninguna se indica cómo son los corpus empleados. En cualquier caso, a la luz de lo anterior, es posible considerar que las investigaciones existentes hasta la fecha, aunque insuficientes, respaldan la creencia firme de que el estudio de lo traducido en entornos museísticos es terreno apropiado para nuevas investigaciones.

  1. Textos museísticos y corpus

El proyecto cuyos resultados se pretenden presentar en este congreso tiene como uno de los objetivos principales el diseño, la compilación y la explotación de dos corpus electrónicos paralelos de textos museísticos y de centros de arte, uno de museos y centros de arte de Nueva York (originales en lengua inglesa y traducciones en lengua española) y el otro de museos y centros de arte de Málaga (originales en lengua española y traducciones en lengua inglesa).

La compilación de textos de museos de Nueva York y Málaga se ha diseñado de forma tal que resulten sendos corpus electrónicos, especializados, paralelos —o multilingües, tipo A (McEnery y Hardie, 2012: 19)— y equilibrados. Su género será el de textos museísticos, publicados tanto en línea como en formato impreso. Cada corpus tendrá características distintas:

  • corpus inglés-español, con textos de museos de la ciudad de Nueva York y su área metropolitana;
  • corpus español-inglés, procedente de textos de museos de la ciudad de Málaga.

Los registros de los corpus se pretenden codificar un archivo de metadatos, donde constarán datos de cada entrada (museo de procedencia, año de creación del documento, título del documento, tipo de texto), así como datos adicionales, si procede (autor del texto, autor de la traducción, url), para facilitar su reutilización.

Bibliografía

GUILLOT, Marie-Noëlle (2014), «Cross-cultural pragmatics and translation: The case of museum texts as interlingual representation», en HOUSE, Juliane (ed.), Translation: A multidisciplinary approach, Hampshire, Palgrave, pp. 73–95.

JIANG, Chenzghi (2010), «Quality assessment for the translation of museum texts: Application of a systemic functional model», Perspectives: Studies in Translatology, vol. 18, n.º 2, pp.109-126.

JIMÉNEZ HURTADO, Catalina, SEIBEL, Claudia y SOLER GALLEGO, Silvia (2012), «Museos para todos: la traducción e interpretación para entornos multimodales como herramienta de accesibilidad universal», MonTi, n.º 4, pp. 349-383.

MCENERY, Tony y HARDIE, Andrew (2012), Corpus linguistics: Method, theory and practice, Cambridge, Cambridge University Press.

MIKLOŠEVIĆ, Željka (2015), «Delivering messages to foreign visitors – Interpretative labels in the National Gallery of Slovenia», Solsko Polje, vol. 26, n.º 5-6, pp. 119-139.

MORENO FERNÁNDEZ, Francisco y OTERO ROTH, Jaime (2016), Atlas de la lengua española en el mundo, Barcelona, Ariel.

NEATHER, Robert (2008), «Translating tea: On the semiotics of interlingual practice in the Hong Kong Museum of Tea Ware», Meta, vol. 53, n.º 1, pp. 218-240.

NEATHER, Robert (2009), «Translation in a “non-translation” community: Practices, ideologies and conceptualizations of translation in the PRC Museum Discourse Community», Translation Quarterly, n.º 51-52, pp.145-174.

NEATHER, Robert (2012), «Intertextuality, translation, and the semiotics of museum presentation: The case of bilingual texts in Chinese museums», Semiotica, n.º 192, pp. 197-218.

STURGE, Kate (2007), Representing others. Translation, ethnography and the museum, Mánchester, St. Jerome.

VALDEÓN, Roberto A. (2015), «Colonial museums in the US (un)translated», Language and Intercultural Communication, vol. 15, n.º 3, pp. 362-375.

[1] .

[2] .

[3] .

[4].

[5].

[6] .

Corpus lingüísticos, lematizadores y etiquetadores morfológicos en la investigación de la Historia de la Lengua Española

Rocío Díaz Bravo
Universidad de Granada

La era digital está afectando a la investigación en todos los campos del saber, incluidas las Humanidades. En el caso de la Filología Hispánica y de la Historia de la Lengua Española, cada vez son más numerosos los proyectos de investigación que se están beneficiando de los métodos, recursos y herramientas de las Humanidades Digitales.

A pesar del número creciente de recursos digitales de investigación en la Historia de la Lengua Española, la bibliografía sobre sus aspectos tecnológicos es relativamente escasa, así como el análisis de las necesidades de los investigadores y usuarios de dichos recursos digitales. Por otro lado, estos recursos electrónicos no aprovechan todo el potencial que ofrecen las nuevas tecnologías. Por todo ello, es importante seguir fomentando el crecimiento de las Humanidades Digitales en la Historia de la Lengua Española, sobre todo, en la creación de recursos y herramientas que faciliten la investigación y la docencia de sus distintas áreas de especialización y niveles lingüísticos y que permitan nuevos caminos de exploración científica.

El trabajo aquí presentado pretende ser una contribución a las Humanidades Digitales Hispánicas aplicadas a la investigación de la Historia de la Lengua Española. Los objetivos principales son los siguientes:

  • Demostrar que los corpus diacrónicos del español deben mejorar considerablemente, en especial, desde el punto de vista tecnológico.
  • Identificar opciones y funcionalidades que faciliten la investigación lingüística de los usuarios.
  • Evaluar la fiabilidad de los lematizadores y etiquetadores morfológicos al aplicarlos a textos de diferentes épocas en la Historia de la Lengua Española.
  • Proponer mejoras.

Con respecto a la metodología, he seguido métodos mixtos. Por una parte, he realizado entrevistas a diferentes investigadores que trabajan en distintos proyectos de Historia de la Lengua Española. Este estudio fue autorizado por el comité ético de investigación de King’s College London y por los propios investigadores. Del análisis de las entrevistas debemos destacar que tanto la lematización como el etiquetado morfológico de un corpus son aspectos esenciales para llevar a cabo estudios lingüísticos, teniendo en cuenta las necesidades de los investigadores. Sin embargo, es destacable la escasez de lematizadores y etiquetadores del español anterior al siglo XX y, consecuentemente, de corpus lematizados y etiquetados. Por ello, en esta investigación me he centrado en analizar tanto corpus como lematizadores y etiquetadores del español anterior al siglo XX. Por otra parte, para evaluar la fiabilidad de dichas herramientas computacionales, he realizado un estudio cuantitativo y cualitativo, analizando los aciertos y errores al aplicar la lematización y etiquetación morfológica automática a textos de diferentes épocas.

Mi estudio consta de dos partes principales: 1) En primer lugar, un breve análisis de los principales corpus de lengua española anterior al siglo XX (Corpus del Español de Mark Davies y los corpus lingüísticos de la Real Academia: Corpus Diacrónico del Español y el Corpus del Nuevo Diccionario Histórico). 2) En segundo lugar, el núcleo de la investigación es el análisis de lematizadores para el español anterior al siglo XX: AyDA (Analizador y Desambiguador Automático, Instituto de Lingüística Computacional de Pisa), Freeling (Universidad Politécnica de Cataluña) y Bconcord (Universidad Complutense de Madrid). En esta parte, he realizado la lematización automática de textos de diversos períodos (español medieval, español del Siglo de Oro y español del siglo XIX), en su mayoría procedentes de corpus pertenecientes al proyecto internacional CHARTA (Corpus Hispánico y Americano en Red: Textos Antiguos) y he analizado los resultados de dicha lematización y etiquetación morfológica, teniendo en cuenta los tipos y la frecuencia tanto de errores como de aciertos de cada programa, y centrándome en los rasgos específicos del español de cada época, en todos los niveles lingüísticos (fonético-fonológico, morfosintáctico y léxico), frente al español actual. La principal dificultad ha sido el acceso a los lematizadores, ya sea por su difusión limitada o por su complejidad de instalación y uso. Esta investigación pone de manifiesto la necesidad de mejorar los lematizadores y etiquetadores morfológicos del español anterior al siglo XX y sugiere posibles modificaciones que se podrían llevar a cabo con el fin de aprovechar el potencial de los corpus lingüísticos de lengua española. Muchos investigadores están usando y / o creando actualmente corpus históricos y podrían beneficiarse de este estudio.

Proyecto HISTRA: marco metodológico y expectativas de desarrollo

María Luisa Alvite Díez
Universidad de León

Leticia Barrionuevo Almuzara
Universidad de León

 María Teresa Burón Álvarez
Universidad de León

Elena Bandín Fuertes
Universidad de León

José Luis Chamosa González
Universidad de León

Cristina Gómez Castro
Universidad de León

Camino Gutiérrez Lanza
Universidad de León

María Jesús Vallejo Fernández
Universidad de León

Alberto de Paz Álvarez
Universidad de León

Palabras clave: Historia de la traducción, HISTRA, inglés-español, plataforma digital
Keywords: History of Translation, HISTRA, English-Spanish, digital platform

HISTRA (HIStoria de la TRAducción) tiene su origen en la compilación bibliográfica llevada a cabo por el Dr. Santoyo Mediavilla a lo largo de su carrera investigadora. La construcción de esta herramienta se plantea a partir de un voluminoso archivo de fichas en las que este profesor, experto en historia de la traducción, recoge referencias bibliográficas y valiosas anotaciones personales de traducciones al español de obras en lengua inglesa desde el siglo XVI hasta la década de los ochenta del siglo XX. La información contenida en este conjunto de ficheros ha servido de base para sustentar la labor académica del Dr. Santoyo, así como un número importante de tesis doctorales, dirigidas por él mismo, en el campo de la historia de la traducción, abordando aspectos tales como la autotraducción, la introducción de anglicismos en el léxico español, los plagios en las traducciones, etc.

La finalidad del proyecto aquí presentado se fija en lograr la difusión y visibilidad de este fichero de interés sobresaliente para la comunidad académica, enriquecer los contenidos iniciales del mismo y contribuir al avance de la disciplina de la traducción.

HISTRA se concibe como un recurso electrónico para la investigación en la Historia de la Traducción, posibilitando el desarrollo de estudios sobre la recepción literaria de obras traducidas del inglés al español, de autores y traductores. Permite igualmente emprender estudios de carácter diacrónico en las áreas de edición, ascenso de nuevos géneros literarios y usarse como un instrumento más de análisis de las demandas cambiantes del público lector, entre otros.

El equipo de trabajo pertenece a la Universidad de León y se ha configurado desde una perspectiva interdisciplinar, acogiendo investigadores en Documentación, Filología inglesa e Ingeniería Informática. HISTRA se encuentra en un servidor institucional alojado en el Centro de Proceso de Datos de la Universidad de León con sistema operativo Linux Ubuntu 14.04.3 LTS, con 1 core y 4 G de memoria RAM. Disco de 50 G, de los cuales 30 G están en un almacenamiento externo, del cual se hace copia de seguridad. La solución técnica se concreta en un servidor web Apache, base de datos  MySQL 5.5 y Koha-Kobli 1.12.4.

La herramienta tecnológica seleccionada para sustentar HISTRA es Koha-Kobli, un sistema de gestión de bibliotecas de software libre que, partiendo de Koha, ha sido desarrollado a iniciativa del Grupo de Trabajo de las Bibliotecas de la Administración General del Estado. La aplicación permite la gestión de la información bibliográfica atendiendo a criterios documentales normalizados y además proporciona una interfaz de búsqueda flexible y adecuada para la interacción con el usuario final.

El equipo procedió, en primer lugar, a la parametrización y configuración de preferencias de la aplicación con la finalidad de adaptar Kobli a las necesidades concretas requeridas, esto es, una base de datos en la que priman las búsquedas por autores, traductores, títulos y materias, y en la que la información asociada a los registros aportará valores añadidos, de forma que a las anotaciones del Dr. Santoyo se puedan ir sumando otro tipo de datos y/o documentación relacionada con el traductor y su trayectoria. En este apartado cabe destacar la labor de personalización de la interfaz de usuario, decisiones sobre tipos de búsqueda disponibles, índices asociados, configuración de filtros de búsqueda facetada y opciones de exportación, entre otros.

Un aspecto metodológico fundamental en el proyecto es el uso de estándares bibliotecarios, la descripción de los registros atiende a las Reglas de Catalogación y al empleo del formato internacional MARC 21 que garantiza la compatibilidad y transferencia de la información bibliográfica. Kobli integra la funcionalidad de acceso a servidores Z39.50, permitiendo la búsqueda, captura e integración de registros bibliográficos en HISTRA desde diversos servidores, Biblioteca Nacional, REBIUN y WorldCat, fundamentalmente.

Asimismo, cabe subrayar la implementación en HISTRA de un control de autoridades riguroso, sustentado en el Catálogo de Autoridades de la Biblioteca Nacional, que busca la consistencia en los puntos de acceso permitiendo identificar unívocamente a autores y traductores; convierte así la base de datos en una red de relaciones que permiten al usuario desplazarse con seguridad desde formas no aceptadas a las formas autorizadas, y a otros accesos relacionados, generando así una plataforma robusta para la recuperación pertinente de información sobre traductores y obras traducidas.

Las líneas de trabajo futuras se fijan, de un lado, en dar continuidad a la alimentación de la base de datos, enriquecer los registros con información/documentación relacionada o proporcionar enlaces a obras digitalizadas, cuando sea posible; de otro lado, el equipo busca explorar nuevas posibilidades de publicación que acerquen la base de datos a modelos previstos en la web semántica, avanzando en la visibilidad de HISTRA y en la interrelación con otras comunidades generadoras de datos abiertos enlazados susceptibles de ampliar el conocimiento y la investigación en Historia de la Traducción.

Image and video hosting by TinyPic
Figura 1 HISTRA. En:  <http://histra.unileon.es>

Bibliografía

Biblioteca Nacional de España (BNE), Catálogo de autoridades. En: <http://catalogo.bne.es/uhtbin/authoritybrowse.cgi> (Fecha de consulta: 3-07-2017).

Formato MARC 21 para registros bibliográficos (2016), Madrid, Ed. en español, Biblioteca Nacional. En: <http://www.bne.es/es/Micrositios/Guias/Marc21/resources/Docs/Marc21.pdf> (Fecha de consulta: 3-07-2017).

Grupo de Trabajo de las Bibliotecas de la Administración General del Estado, Koha-Kobli: Sistema integrado de gestión bibliotecaria de fuentes abiertas. En: <http://kobli.bage.es/> (Fecha de consulta: 5-07-2017).

Koha Library Software. En: <https://koha-community.org/> (Fecha de consulta: 5-07-2017).

Reglas de Catalogación (1999), Ed. nuevamente revisada, Madrid, Ministerio de Educación y Cultura.  En: <http://www.bne.es/media/Perfiles/Bibliotecarios/reglas-catalogacion.pdf> (Fecha de consulta: 3-07-2017).

SANTOYO MEDIAVILLA, Julio César (1987), Traducción, traducciones, traductores: ensayo de bibliografía española, León, Universidad de León.

Virtual International Authority File (VIAF). En: <http://viaf.org> (Fecha de consulta: 3-07 -2017).

El proyecto SCRIBA. Las Humanidades Digitales al servicio del estudio y la difusión del notariado medieval

Delfi I. Nieto Isabel
IRCVM, Universitat de Barcelona

Mireia Comas
IRCVM, Universitat de Barcelona

Pau Castell
IRCVM, Universitat de Barcelona

Giacomo Floris
IRCVM, Universitat de Barcelona

Palabras clave: notariado, Edad Media, XML-TEI, text-mining
Keywords: Notaries, Middle Ages, XML-TEI, text-mining

El objetivo de esta comunicación es presentar el proyecto SCRIBA: Anar a cal notari a la Catalunya medieval, proyecto que ha obtenido una ayuda Recercaixa en esta última convocatoria (2017). El proyecto SCRIBA tiene como principal misión acercar la institución notarial medieval catalana y la documentación generada por esta a la comunidad científica internacional, pero especialmente a la sociedad. La documentación notarial constituye un elemento esencial para la reconstrucción del pasado desde distintos ámbitos y permite además acercarse a parcelas microhistóricas y recuperar las historias de gente anónima, reconstruyendo la identidad local de pueblos y comarcas a partir de una información que a menudo se encuentra, casi exclusivamente, en este tipo de documentación. En definitiva, pretendemos poner de relieve la importancia de la institución notarial como uno de los ejes vertebradores de la sociedad bajomedieval en Cataluña, por lo que se hace necesario un estudio profundo desde diferentes puntos de vista.

Los objetivos del proyecto pueden concretarse en los siguientes puntos:

  1. Transformar un corpus específico de protocolos notariales en material digital exportable, aplicando metodologías de marcaje de textos.
  2. Extraer de información de ese corpus documental mediante técnicas de text mining y top modeling para dibujar el retrato social del periodo.
  1. Realizar análisis comparativos de la producción documental de distintas escribanías para establecer parámetros identitarios diferenciales de género e integración social
  2. Dar a conocer la vida cotidiana y las formas de organización social en la Cataluña medieval a través del estudio del patrimonio documental y su difusión.

Todos estos objetivos se concretarán gracias a una metodología específica que se desarrollará en el término de dos años. El primer paso de SCRIBA es la transcripción y edición de un libro notarial proveniente de una escribanía de ámbito rural, en particular estamos estudiando el Libro 1 de la parroquia de Santa María de Siurana (Archivo Diocesano de Tarragona, años 1229-1239, en latín). La razón de esta elección es que se trata de uno de los primeros ejemplares de registros notariales catalanes redactados según el nuevo sistema procedente de la renovación jurídica boloñesa. Además, esta escribanía rural se ubicaba en el último territorio conquistado por el conde de Barcelona a los musulmanes y pensamos que es el paradigma de la llegada de los nuevos usos notariales boloñeses a Cataluña, y con ellos, de las nuevas formas de hacer europeas.

El libro se ha digitalizado para facilitar el trabajo de transcripción. La transcripción se está marcando y codificando en lenguaje XML, el cual ofrece la posibilidad de generar y procesar texto digital exportable con independencia de dispositivos y sistemas. En particular nos hemos adaptado a las normas de la Text Encoding Initiative (TEI) para situar elementos paleográficos (determinar las diferentes manos, las tipologías gráficas y las abreviaturas), diplomáticos (fórmulas de las tipologías contractuales) y de contenido (nombres de los contratantes, topónimos, objeto de transacción, etc.). La TEI es un consorcio internacional que desarrolla y mantiene un estándar para la representación digital de textos que se ha utilizado ampliamente desde 1994 en bibliotecas, museos, editoriales y en el ámbito académico.

También se harán marcajes de libros notariales medievales ya editados y publicados, mayoritariamente por la Fundación Noguera, dentro de la colección Acta Notariorum Cataloniae (volúmenes 1, 2-3, 5, 6-7, 8, 9, 13-14, 16, 17-18 y 22), con documentos mayoritariamente en latín, pero también algunos en catalán. Son volúmenes de los siglos XIII-XV que abarcan gran parte del territorio catalán. Con el fin de ampliar los estudios comparativos transcribiremos y marcaremos también un libro notarial proveniente de Barcelona (Archivo Histórico de Protocolos de Barcelona, Bernat de Villarubia, 1/2, 1297, en latín) con el objetivo de comparar una escribanía rural con una urbana siguiendo los parámetros definidos para el Libro 1 de Siurana descrito en este párrafo.

La gran innovación de SCRIBA consiste en la aplicación de minería de textos y topic modeling a la documentación notarial catalana. A partir de los textos marcados en la fase inicial del proyecto, procederemos a extraer información estructurada que alimentará la base de datos SCRIBA y permitirá derivar patrones y evaluar sus resultados. Entre otras estrategias y en función del volumen y la tipología de los datos se emplearán:

  • Minería de opinión (aplicada típicamente en el ámbito social pero no normalmente a fuentes históricas)
  • Minería de conceptos (asignando palabras y fórmulas específicas a conceptos para establecer tipologías de documentos que pueden ir más allá de las tradicionales; produciendo estadísticas y estableciendo relaciones entre estos conceptos)
  • Clustering de documentos (característico del campo de los buscadores y con un gran potencial para la organización de grandes fondos documentales, yendo así un paso más allá de la simple clasificación)
  • Topic modeling (para analizar el grueso de los datos). Usaremos el Topic Modeling Toolbox (TMT) 0.4.0 desarrollado por el grupo Stanford NLP en 2009.

A partir de ahí se podrán hacer análisis exhaustivos de la actividad notarial en unos años muy concretos definiendo: índices de nombres (antropónimos y topónimos) que se pueden georreferenciar para visualizar el área de influencia de la escribanía; índices de tipologías contractuales; fechas de cada contrato para el análisis de las dinámicas anuales de actividad; identificar el nombre del notario / notarios que escriben el registro; cláusulas de las fórmulas; características de los contratos (objeto de transacción, dinero, etc.).

Los resultados de estas fases permitirán establecer estudios comparativos sobre la evolución del notariado en el territorio catalán, tanto en el ámbito urbano como en el rural. Sin embargo tiene un especial interés analizar la llegada del notariado público a lugares pequeños y evaluar la documentación conservada con el objetivo de darla a conocer a la sociedad local y mostrar la importancia que tiene para la construcción de la identidad local a partir de un conocimiento más profundo de su propia Historia. En aquellos lugares con un desarrollo más intenso del notariado, y / o con un grueso de documentación conservada más importante, como Barcelona por ejemplo, SCRIBA quiere analizar aspectos relacionados con la integración social: inmersión de personas recién llegadas, relación entre ellas, motivos que los impulsan a trasladarse a la ciudad y, especialmente, el papel de la mujer en la sociedad medieval a partir de su rol como autora de documentos notariales, lo que nos permite un análisis desde la perspectiva de la integración de género.

Esto se conseguirá gracias a la creación de herramientas para la difusión del conocimiento histórico: la base de datos SCRIBA en formato Open Access; SCRIBA Recerca, para visualizar las análisis llevadas a cabo con la documentación notarial; SCRIBA Virtual, una reconstrucción virtual de una escribanía que permitirá visualizar los distintos elementos que la componen para mostrar su funcionamiento; SCRIBA Gaming, un espacio con juegos y actividades didácticas que permitan ver el funcionamiento de la sociedad medieval a partir de las tipologías documentales; y SCRIBA Galería, una exposición virtual.

Las Humanidades digitales representan una oportunidad des del punto de vista científico para poder analizar este tipo de documentación, es decir, la documentación notarial medieval, desde otro punto de vista, explotando su contenido no de la forma tradicional, sino con el uso de las herramientas i estrategias antes mencionadas. Por otro lado, nos permitirá aportar herramientas innovadoras para su comprensión que, al mismo tiempo, darán lugar a instrumentos que permitirán alcanzar una mayor difusión. En definitiva, nuestra voluntad es presentar los primeros pasos realizados en el marco de este proyecto, así como también difundir la totalidad del proyecto.

 

Financiación

La investigación que ha dado lugar a estos resultados ha estado impulsada por RecerCaixa.

Easy Linavis (Simple Network Visualisation for Literary Texts)

Frank Fischer
Higher School of Economics, Moscow

Carsten Milling
Berlin

Palabras clave: Análisis de redes
Keywords: Network Analysis

 

The analysis of social networks extracted from literary texts has grown into a subfield of Digital Literary Studies in recent years (Moretti, 2011; Jannidis, 2017). Our own research is based on the automatic extraction from larger corpora. Operationalising this kind of extraction is a non-trivial, often times ambiguous act, even if we talk about highly structured texts like dramas (Fischer et al., 2015).

The resulting network graph might be contained in a file format as simple as CSV (comma separated values). A list of social interactions of one character to other characters in a play would look something like this:

Source,Target,Weight

Electra,Evarista,10

Electra,Gil,1

Electra,La Sombra,1

Electra,Mariano,4

Electra,Marqués,13

Electra,Máximo,14

Electra,Pantoja,10

Electra,Patros,4

The relations listed above were extracted from Benito Pérez Galdós’s 5-act play «Electra», which premiered in 1901. To achieve this result, one could simply browse a book or scroll through a digital copy of that book and count all mutual speech acts (weight) of all characters – a laborious and error-prone act.

Instead, this information could be collected in an intermediary scene-by-scene format like this:

# ACTO PRIMERO

## ESCENA PRIMERA

José

Marqués

## ESCENA II

Don Urbano

Marqués

## ESCENA III

Cuesta

Marqués

Don Urbano

## ESCENA IV

Cuesta

Patros

## ESCENA V

Cuesta

Pantoja

…

This intermediary list of acting/speaking characters per scene is much more controllable, and translating this simple format into a working CSV file is a matter of just a handful of lines of code. But we facilitated this process by creating an easy-to-use online tool for that, «Easy Linavis». An example can be seen in Figure 1.

We used React.js <https://facebook.github.io/react/> for building the interface of our tool. The CSV format is created live, based on the content entered (or copied-and-pasted) by the user in the left row. Once the extraction of all scenes is finished, the resulting lines in the middle row can be saved in a 4-column CSV file, ready to be imported into Gephi or other network visualisation software. The graph in the right part of the screen is also generated live and is meant as a first impression of the resulting graph. We used Sigma.js for this <http://sigmajs.org/> and chose a force-directed layout algorithm to generate the graph.

Image and video hosting by TinyPic
Figure 1 Pérez Galdós’s play «Electra» in Easy Linavis

The code for our project was released as open source and can be obtained on GitHub <https://github.com/dlina/ezlinavis>. The software can be run on your own server or cloned to your computer and run locally:

git clone https://github.com/dlina/ezlinavis.git

cd ezlinavis

npm install

npm test

npm start

We also set up a showcase instance at <https://dlina.github.io/ezlinavis/>, which contains a handful of example files.

The purpose of Easy Linavis is not to compete with more sophisticated methods of extracting networks from literary texts, but is intended for didactic use in teaching, to take first steps from theory to practice. We will also address the adaptability and extensibility of the tool.

 

Acknowledgements

The article was prepared within the framework of the Academic Fund Program at the National Research University Higher School of Economics (HSE) in 2017–2018 (grant No 17-05-0054) and by the Russian Academic Excellence Project “5-100”.

Bibliography

FISCHER, F., GÖBEL, M., KAMPKASPAR, D., TRILCKE, P. (2015), «Digital Network Analysis of Dramatic Texts», DH2015. En: <http://dh2015.org/abstracts/xml/FISCHER_Frank_Digital_Network_Analysis_of_Dramati/FISCHER_Frank_Digital_Network_Analysis_of_Dramatic_Text.html>.

JANNIDIS, F. (2017), «Netzwerke», en JANNIDIS, F., KOHLE, H., REHBEIN, M. (eds.), Digital Humanities. Eine Einführung, pp. 147–161.

MORETTI, F. (2011), «Network Theory, Plot Analysis», New Left Review, n.º 68, pp. 80–102.

PÉREZ GALDÓS, B. (1901), Electra. Digital copy in: <http://www.gutenberg.org/ebooks/28002>.

CEDEL2 (Corpus Escrito del Español como L2, versión 2.0): diseño de nuevos subcorpus de aprendices angloparlantes y japoneses de español

Cristóbal Lozano
Universidad de Granada

Nobuo Ignacio López Sako
Universidad de Granada

Palabras clave: corpus de aprendices, adquisición de segundas lenguas, ELE, corpus CEDEL2
Keywords: learner corpora, second language acquisition, Spanish as a Foreign Language, CEDEL2 corpus

La creación de corpus de aprendices de lenguas extranjeras ha experimentado un importante auge en la última década. Dichos corpus son necesarios tanto para la investigación sobre la adquisición de lenguas (véase Granger et al., 2015) como para el desarrollo de aplicaciones en el campo de la enseñanza de lenguas extranjeras (Hawkins & Filipovic, 2012). No obstante, la mayoría de corpus de aprendices se han centrado principalmente en el inglés como segunda lengua, p.ej., el International Corpus of Learner English, ICLE (Granger et al., 2002, 2009) o el programa English Profile <http://www.englishprofile.org>. En este contexto internacional, han surgido algunos extensos corpus de aprendices de español como lengua extranjera/segunda: CEDEL2 (Lozano, 2009; Lozano & Mendikoetxea, 2013), CAES (Rojo y Palacios, 2015) y SPLLOC (Mitchell et al., 2008).

  1. CEDEL2 (v. 1.0)

CEDEL2 es un corpus en expansión. La primera versión (v. 1.0) consta de un total de 750.000 palabras y 2.578 participantes voluntarios. La base de datos del corpus (en formato MySQL) se alberga en un servidor y está disponible gratuitamente online a través de una interfaz de búsqueda y filtrado de textos: <http://cedel2.learnercorpora.com>. CEDEL2 sigue estrictos criterios de diseño, tanto los concernientes a los principios de diseño de corpus propuestos por expertos en lingüística de corpus (Sinclair, 2005) como los principios específicos de los corpus de aprendizaje de segundas lenguas (Lozano & Mendikoetxea, 2013; Granger, 2008). Los datos han sido recogidos online a través de formularios web. CEDEL2 v. 1.0 se compone de 3 subcorpus:

  1. El subcorpus principal L1 inglés-L2 español corresponde a angloparlantes aprendices de español en varios países e instituciones (EEUU, Reino Unido, Canadá, España, etc.) y de todos los niveles de
  2. El subcorpus de nativos de español peninsular e hispanoameriano sirve de corpus de control para hacer comparaciones lingüísticas con el subcorpus de
  3. Dadas ciertas similitudes gramaticales/tipológicas entre el griego y el español (p.ej., ambas son lenguas de sujeto nulo o pro-drop), CEDEL2 también incorpora un subcorpus de L1 griego – L2 español recogido in situ en varias instituciones académicas

 

  1. CEDEL2 (v. 2.0)

En esta ponencia presentaremos también el proyecto de diseño y creación del nuevo CEDEL2 (versión 2.0), que como novedad incluye:

  1. datos orales (siguiendo la recomendación de Myles 2015) datos escritos en el mismo tipo de tareas.
  2. datos de aprendices de L1s tipológicamente diferentes: el nuevo subcorpus L1 japonés – L2 español, que podrán contrastarse con los datos ya existentes (y nuevos datos en recopilación) del subcorpus L1 inglés – L2 español y L1 griego – L2 español.

Hasta la fecha, los corpus de L2 que contienen datos procedentes de nativos de japonés L1 son casi exclusivamente corpus de inglés L2 (inter alia, the written corpora ICLE v. 2.0, NICT JLE, SILS corpus, ICNALE, and the spoken LINDSEI). La combinación L1 japonés – L2 español es prácticamente inexistente en el ámbito de los corpus de aprendices (véase el subcorpus L1 japonés – L2 español en Campillos Llanos (2014) para una excepción muy limitada de tan sólo 4 aprendices). Dada la absoluta escasez de este tipo de corpus, así como las diferencias tanto tipológicas (topic-drop vs. pro-drop, núcleo final vs. núcleo inicial, ausencia vs. existencia de artículos, ausencia vs. existencia de marcadores de género y número, etc.) como pragmático-discursivas (uso de pronombres personales, uso de honoríficos, convenciones retóricas y de organización del discurso, etc.) entre el japonés y el español/griego, la versión japonesa de CEDEL2 representa un avance significativo en el campo de la investigación y docencia del español como L2/ELE al permitir comprobar si las características específicas de la lengua nipona tienen efectos diferenciadores sobre la producción del español (véase Tono 2005 para cuestiones similares sobre influencia del L1 japonés en L2 inglés en el corpus NICT JLE).

En primer lugar, explicaremos los criterios de diseño de CEDEL2, que son comunes a todos los subcorpus (L1 japonés, inglés, y griego) para posibilitar la comparación entre ellos. En segundo lugar, tras resaltar la importancia de incorporar una lengua como la japonesa a efectos comparativos (Myles, 2015: 319), comentaremos la adaptación del instrumento de recogida de datos para adecuarlo a las particularidades tanto de la lengua y sociedad japonesas como del subcorpus L1 japonés – L2 español en relación con los corpus de aprendices de otras lenguas. Asimismo, mostraremos un ejemplo de análisis mediante el programa UAM Corpus Tool y algunos datos preliminares. Por último, presentaremos los objetivos del proyecto en cuanto a la recogida de datos, para la cual nos gustaría hacer un llamamiento y solicitar la colaboración de universidades y centros educativos de ELE que estén interesados en participar/colaborar a través de los siguientes formularios online:

 

Bibliografía

CAMPILLOS LLANOS, Leonardo (2014), «A Spanish oral learner corpus for computer-aided error analysis», Corpora, 9(2), pp. 207–238. Corpus en: <http://cartago.lllf.uam.es/corele/index.html>.

GRANGER, Sylviane (2008), «Learner corpora», en LÜDELING, Anke & KYTÖ, Merja (eds.), Corpus Linguistics: An International Handbook, Berlín, Mouton de Gruyter, pp. 259-275.

GRANGER, Sylviane, DAGNEAUX, Estelle & MEUNIER, Fanny (2002), The International Corpus of Learner English. Handbook and CD-ROM, Louvain-la- neuve, Presses universitaires de Louvain.

GRANGER, Sylviane, DAGNEAUX, Estelle, MEUNIER, Fanny & PAGUOT, Magali (2009), The International Corpus of Learner English. Version 2. Handbook and CD-ROM, Louvain-la-neuve, Presses universitaires de Louvain.

GRANGER, Sylviane, GILQUIN, Gaëtanelle & MEUNIER, Fanny (eds.) (2015), The Cambridge Handbook of Learner Corpus Research, Cambridge, Cambridge University Press.

HAWKINS, John A. & FILIPOVIC, Luna (2012), Criterial features in L2 English: Specifying the reference levels of the Common European Framework, Cambridge, Cambridge University Press.

ICLE v. 2.0 (International Corpus of Learner English). En: .

ICNALE corpus (The International Corpus Network of Asian Learners of English). En: .

LINDSEI corpus (Louvain International Database of Spoken English Interlanguage). En: .

LOZANO, Cristóbal (2009), «CEDEL2: Corpus Escrito del Español como L2», en BRETONES, Carmen María, et al. (eds.), Applied Linguistics Now: Understanding Language and Mind, Almería, Universidad de Almería, pp. 197-212. Versión 1.0 online: .

LOZANO, Cristóbal & MENDIKOETXEA, Amaya (2013), «Learner corpora and second language acquisition: the design and collection of CEDEL2», en DÍAZ-NEGRILLO, Ana, BALLIER, Nicolas, & THOMPSON, Paul (eds.), Automatic Treatment and Analysis of Learner Corpus Data, Amsterdam, John Benjamins, pp. 65-100. Versión 1.0 online:
.

NICT Japanese Learner English (JLE) Corpus. En: .

MITCHELL, Rosamond, DOMÍNGUEZ, Laura, ARCHE, María J., MYLES, Florence & MARSDEN, Emma (2008), «SPLLOC: A new corpus for Spanish second language acquisition research», en ROBERTS, Leah, MYLES, Florence & DAVID, Annabelle (eds.), EUROSLA Yearbook 8, Amsterdam, John Benjamins, pp. 287-304. Versión 1 y 2 online:< http://www.splloc.soton.ac.uk/>.

MYLES, Florence (2015), «Second language acquisition theory and learner corpus research», en GRANGER, Sylviane, GILQUIN, Gaëtanelle & MEUNIER, Fanny (eds.), The Cambridge Handbook of Learner Corpus Research, Cambridge, Cambridge University Press, pp. 309-311.

ROJO, Guillermo & PALACIOS, Ignacio (2015), «CAES (Corpus de Aprendices de Español) (v. 1.0)». En: .

SILS Learner Corpus of English. En: .

SINCLAIR, John (2005), «How to build a corpus», en WYNNE, Martin (ed.), Developing Linguistic Corpora: A Guide to Good Practice, Oxford, Oxbow Books, pp. 79–83.

TONO, Yukio (2005), «Corpus-based SLA Research: State of the art of Learner Corpus Studies», en MINAMI, Masahiko, KOBAYASHI, Harumi, NAKAYAMA, Mineharu & SIRAI, Hidetoshi (eds.), Studies in Language Sciences (4): Papers from the Fourth Annual Conference of the Japanese Society for Language Sciences, Tokio, Kuroshio Publishers, pp. 45-77.

COREFL (Corpus of English as a Foreign Language): la creación y el diseño de un corpus de hipanohablantes aprendices de inglés

Ana Díaz-Negrillo
Universidad de Granada

Cristóbal Lozano
Universidad de Granada

Palabras clave: corpus de aprendices, adquisición de segundas lenguas, L1 español – L2 inglés, COREFL
Keywords: learner corpora, second language acquisition, L1 Spanish – L2 English, COREFL

Dentro del contexto de las Humanidades Digitales y, más concretamente, dentro del reciente campo de investigación denominado Learner Corpus Research (LCR) (Granger et al., 2015), la creación de grandes corpus informatizados de aprendices de segundas lenguas (L2) ha crecido exponencialmente en los últimos años, especialmente en lo concerniente a los corpus de inglés como L2, tales como ICLE (Granger et al., 2009), CALE (Callies y Zaytseva, 2013), o el WRICLE (Rollinson y Mendikoetxea, 2010). Este tipo de corpus lingüísticos se utilizan en diversas disciplinas todas ellas relacionadas con los idiomas, por ejemplo, la didáctica de idiomas extranjeros, el diseño de materiales didácticos, la adquisición de segundas lenguas (ASL), o la lingüística computacional.

Si bien es cierto que existen corpus de hablantes nativos de español que son aprendices de inglés (L1 español – L2 inglés), por ejemplo los corpus WRICLE (Written Corpus of Learner English), BELC (Barcelona English language corpus) o SULEC (Santiago University Learner of English Corpus), éstos normalmente contienen datos exclusivamente de L1 español, o bien orales o escritos, o bien de aprendices adultos o de adolescentes. En este contexto en la Universidad de Granada surge el corpus COREFL (Corpus of English as a Foreign Language), cuyo aspecto más innovador es su propio diseño. COREFL contiene datos representativos de un gran número de variables en cuanto al tipo de tareas, medio, L1s, y edad/perfil educativo de los aprendices, lo cual ofrece multitud de posibilidades de explotación en el ámbito de la enseñanza del inglés y en el de la ASL. COREFL se encuentra, por tanto, entre los corpus más versátiles de L2 inglés en general, y entre los corpus más innovadores de L1 español – L2 inglés en particular. Los aspectos de diseño y contenido más destacables de COREFL son:

  1. Los datos proceden no sólo de aprendices de L2 inglés de nivel universitario, sino también de distintos niveles de secundaria. Esto permite, por ejemplo, el estudio de la repercusión del factor edad en la ASL.
  2. Los datos de secundaria proceden no sólo de aprendices de inglés como lengua extranjera, sino también de aprendices de inglés en programas de inmersión lingüística «CLIL» (Content and Language Integrated Learning) (cf. CLIL en España: Cenoz et al., 2013, Martínez Adrián y Gutiérrez Mangado, 2015). Esto permite estudiar el impacto de los programas educativos bilingües en la ASL.
  3. Los datos son tanto escritos como orales. Esto permite el estudio de aspectos característicos de ambos medios. Además, el estudio de datos orales permite tener acceso a procesos cognitivos ya que éstos tienen un reflejo instantáneo en el discurso hablado, y no tanto en el discurso escrito.
  4. Los datos responden a 4 tipos diferentes de tareas que representan varios grados de control sobre la temática y el tipo de texto (narrativo y descriptivo), cada una de ellas en versión oral y escrita. Esto permite disponer de los datos que mejor se adecúen a los fenómenos estudiados en cada momento, y siempre que sea posible, poder estudiar el mismo fenómeno en escenarios diferentes.
  5. A diferencia de otros corpus de L2 inglés, COREFL contiene un corpus de control de datos de ingleses nativos, lo que permite comparar la expresión lingüística nativa con la no nativa. El corpus de control nativo presenta las mismas características que el no nativo en cuanto al tipo de discurso, tipo de tareas, etc., lo cual permite un contraste fiable de los datos.
  6. El corpus contiene datos de una lengua tipológicamente diferente al español en muchos aspectos gramaticales: L1 alemán. Esto aporta la posibilidad de estudiar el mismo aspecto lingüístico en más de una comunidad lingüística y por tanto obtener una mejor comprensión del fenómeno estudiado.
  7. La estructura del corpus permite además la futura incorporación de otros subcorpus tipológicamente diferentes, por ejemplo, L1 Japonés, o L1 griego.
  8. La recogida de datos se hace tanto de manera presencial (en el aula de secundaria y universitaria) como a través de formularios online. Esto da lugar a una variedad de aprendices de L2 inglés procedentes de diversas instituciones y países (véase las ventajas de dicha variedad de aprendices en Gilquin, 2015).
  9. El diseño del corpus sigue las directrices desarrolladas en el corpus CEDEL2 (Lozano y Mendikoetxea, 2013) dentro del proyecto I+D ANACOR[1], lo que permitirá la comparación directa con CEDEL2 (versión 2.0): subcorpus L1 japonés – L2 español, L1 inglés – L2 español, y corpus de control de nativos de español.
  10. El corpus estará próximamente en la plataforma desarrollada para los corpus hermanos CEDEL2 y WRICLE[2].

Hasta la fecha COREFL consta de más de 150 mil palabras de más de 500 aprendices L2 inglés y se ha utilizado para el estudio de la adquisición de aspectos morfológicos (Lozano y Díaz-Negrillo enviado 2017). Próximamente se utilizará para la investigación de la resolución de la anáfora (RA) que es el tema principal del proyecto ANACOR.

La RA se refiere a cómo las expresiones referenciales (pronombres personales, demostrativos, etc.) se relacionan con sus antecedentes. Recientes estudios han explorado las propiedades que rigen la RA en el discurso en ASL (Bel y García-Alcaraz, 2015, Jegerski et al., 2011, Lozano, 2016), aunque los contextos investigados son poco naturales y los resultados son a veces contradictorios. Otros estudios preliminares con datos de corpus de L2 indican que existen múltiples y complejos factores que determinan el uso y procesamiento de la RA, no sólo factores morfosintácticos, sino también pragmáticos, semánticos, cognitivos, y de estructura informativa (cf. para L2 inglés Hendriks, 2003; Kang, 2004; Ryan, 2015). Los datos de corpus son pues un fértil campo de pruebas para explorar estos factores en la RA en las lenguas nativas y en ASL. Esperamos así contribuir a una mejor comprensión de la adquisición de las segundas lenguas y el bilingüismo en nuestra sociedad.

Financiación

Este trabajo está financiado por el Ministerio de Economía y Competitividad (proyecto de investigación FFI2016-75106-P).

Bibliografía

BEL, A. y GARCÍA-ALCARAZ, E. (2015), «Subject pronouns in the L2 Spanish of Moroccan Arabic speakers», en JUDY, T. y PERPIÑÁN, S. (eds.), The acquisition of Spanish in understudied language pairings, Amsterdam, John Benjamins, pp. 201–232.

CALLIES, M. y ZAYTSEVA, E. (2013), «The Corpus of Academic Learner English (CALE) – A new resource for the assessment of writing proficiency in the academic register», Dutch Journal of Applied Linguistics, vol. 2, n.º 1, pp. 126–132.

CENOZ, J., GENESEE, F. y GORTER, D. (2013), «Critical Analysis of CLIL: taking stock and looking forward», Applied linguistics.

GILQUIN, G. (2015), «From design to collection of learner corpora», en GRANGER, S., GILQUIN, G. y MEUNIER, F. (eds.), The Cambridge handbook of learner corpus research, Cambridge, Cambridge University Press, pp. 9–34.

GRANGER, S., DAGNEAUX, E., MEUNIER, F. y PAQUOT, M. (2009), International corpus of learner English version 2, Louvain, Presses universitaires de Louvain.

GRANGER, S., GILQUIN, G. y MEUNIER, F. (eds.) (2015), The Cambridge handbook of learner corpus research, Cambridge University Press, Cambridge.

HENDRIKS, H. (2003), «Using nouns for reference maintenance: A seeming contradiction in L2 discourse», en GIACALONE RAMAT, A. (ed.), Typology and second language acquisition, Berlín, Mouton de Gruyter, pp. 291–326.

JEGERSKI, J., VANPATTEN, B. y KEATING, G. D. (2011), «Cross-linguistic variation and the acquisition of pronominal reference in L2 Spanish», Second language research, vol. 27, n.º 4, pp. 481–507.

KANG, J. Y. (2004), «Telling a coherent story in a foreign language: analysis of Korean EFL learners’ referential strategies in oral narrative discourse», Journal of pragmatics, vol. 36, n.º 11, pp. 1975–1990.

LOZANO, C. y DÍAZ-NEGRILLO, A. (enviado 2017), «L2 acquisition and learner corpora: The morpheme order studies revisited with interlanguage annotation».

LOZANO, C. y MENDIKOETXEA, A. (2013), «Learner corpora and second language acquisition: the design and collection of CEDEL2», en DÍAZ-NEGRILLO, A., BALLIER, N. y THOMPSON, P. (eds.), Automatic treatment and analysis of learner corpus data, Amsterdam, John Benjamins, pp. 65–100.

LOZANO, C. (2016), «Pragmatic principles in anaphora resolution at the syntax-discourse interface: Advanced English learners of Spanish in the CEDEL2 corpus», en ALONSO RAMOS, M. (ed.), Spanish learner corpus research: current trends and future perspectives, Amsterdam, John Benjamins, pp. 235–265.

MARTÍNEZ ADRIÁN, M. y GUTIÉRREZ MANGADO, J. (2015), «Is CLIL instruction beneficial in terms of general proficiency and specific areas of grammar?», Journal of immersion and content-based language education, vol. 3, n.º 1, pp. 51–76.

ROLLINSON, P. y MENDIKOETXEA, A. (2010), «Learner corpora and second language acquisition: Introducing WRICLE», en BUENO ALONSO, J. L., GONZÁLEZ ÁLVAREZ, D., KIRSTEN TORRADO, U., MARTÍNEZ INSUA, A. E., PÉREZ-GUERRA, J., RAMA MARTÍNEZ E. y RODRÍGUEZ VÁZQUEZ, R. (eds.), Analizar datos > Describir variación / Analysing Data > Describing Variation, Vigo, Universidade de Vigo (Servizo de Publicacións), pp. 1–12.

RYAN, J. (2015), «Overexplicit referent tracking in L2 English: Strategy, avoidance or myth?», Language learning, vol. 65, n.º 4, pp. 824–859.

[1]<https://www.researchgate.net/project/ANACOR-A-corpus-based-approach-to-anaphora-resolution-in-second-language-acquisition-beyond-the-interfaces>.

[2] <http://learnercorpora.com/>.

Cuestiones y problemas en la anotación métrica de un corpus de poesía castellana

María Ángeles Herrero
Universidad de Alicante

Borja Navarro Colorado
Universidad de Alicante

María Ribes Lafoz
Universidad de Alicante

Ángel L. Prieto de Paula
Universidad de Alicante

Francisco Chico Rico
Universidad de Alicante

Palabras clave: soneto, Siglo de Oro, métrica, anotación corpus, literatura española
Keywords: sonnet, Golden Age, metre, corpus annotation, Spanish literature

 

  1. Introducción

En esta comunicación se discuten problemas específicos de la anotación de un corpus de sonetos del Siglo de Oro con información métrica. Tras presentar el marco de desarrollo del corpus (proyecto ADSO), los datos generales de este y el proceso de anotación, se expondrán tanto los principales problemas métricos como las soluciones adoptadas y reflejadas en la guía de anotación.

  1. Marco de desarrollo: el proyecto ADSO

El objetivo principal del proyecto ADSO es la realización de un análisis distante (Moretti, 2007) o macro-análisis (Jockers, 2013) con métodos computacionales de la métrica y la semántica del soneto castellano creado durante el Siglo de Oro (Navarro Colorado, 2015). Frente a estudios tradicionales, centrados en los rasgos específicos de autores canónicos, en el proyecto ADSO buscamos detectar y sistematizar los rasgos generales característicos de toda la producción sonetística de los siglos XVI y XVII, desde Garcilaso de la Vega hasta sor Juana Inés de la Cruz.

Para ello se ha compilado un corpus de sonetos representativo que incluye a 48 poetas, desde autores canónicos como Garcilaso de la Vega, Lope de Vega o Góngora, hasta poetas menos conocidos y poco estudiados como Agustín de Salazar y Torres o Jerónimo de Cáncer y Velasco. Dado que el proyecto pretende determinar los rasgos generales del periodo, en ningún momento se han tenido en cuenta criterios de calidad o canonicidad para la selección de los autores.

Los textos han sido extraídos de la «Biblioteca del Soneto» de la Biblioteca Virtual Miguel de Cervantes[1]. De todos los sonetos ahí publicados, se han seleccionado aquellos que fueron creados durante los siglos XVI y XVII y pertenezcan a un autor del que haya al menos 10 sonetos digitalizados.

En estos momentos el corpus está formado por 5078 sonetos y más de 71000 versos. La lista completa de autores y los sonetos incluidos puede consultarse en la web donde está alojado el corpus[2].

El corpus ha sido anotado en XML siguiendo las recomendaciones de Text Encoding Initiative (TEI Consortium, 2016). La información anotada incluye los metadatos del encabezado, la estructura del soneto (versos) y una etiqueta específica para marcar la métrica de cada verso (@met). Esta se representa formalmente mediante un patrón métrico donde el símbolo «+» representa las sílabas tónicas y el símbolo «-» las átonas:

Cuando me paro a contemplar mi estado

  1. Proceso de anotación métrica

La anotación del corpus se realiza de manera semi-automática. Primero el corpus ha sido anotado automáticamente con un sistema de escansión métrica (Navarro Colorado, 2017). A partir de esta primera anotación automática se ha realizado un proceso de validación y corrección manual de la métrica de cada verso. Este se ha efectuado en dos fases:

  1. Extracción y corrección de patrones métricos erróneos: todos aquellos patrones métricos con algún error evidente se han extraídos automáticamente para su corrección. Por ejemplo, patrones métricos poco frecuentes (659 versos), patrones métricos de tamaño diferente a once sílabas (262 versos) o patrones métricos con algún error sistemático del sistema de escansión (ver sección siguiente).
  1. Validación y corrección de poemas enteros: hay otros problemas que no pueden ser detectados automáticamente. Para estos casos se están validando poemas enteros de una muestra de todo el corpus.
  1. Errores sistemáticos y decisiones de corrección

Los errores en la anotación métrica del corpus se producen por tres causas principales: por errores en el propio texto, por errores del sistema de escansión automático o por  problemas interpretativos debidos a la ambigüedad en algunos versos.

4.1. Errores textuales

Algunos patrones métricos son erróneos debido a errores en el propio texto. Por desgracia, y salvo algunas excepciones (como las ediciones del grupo ProLope[3], las ediciones digitales de Clásicos Hispánicos[4] o la edición digital de las Soledades de Góngora al cuidado de A. Rojas (Rojas Castro, 2016)[5], a día de hoy no disponemos de una edición digital fiable y rigurosa de la poesía castellana del Siglo de Oro. Para este corpus se han utilizado los textos de la Biblioteca Virtual Miguel de Cervantes. Aun siendo en general valiosas, estas ediciones no se atienen a criterios filológicos homogéneos, y presentan algunas imprecisiones y erratas que derivan en patrones métricos erróneos.

Entre los errores textuales nos encontramos primero con simples erratas. Algunas de ellas se han producido por una modernización improcedente o inadvertida de los textos, como en la palabra “espíritu” del siguiente verso de Fernando de Herrera:

pues un espíritu en dos mitades parte.

Debería ser “espirtu”:

pues un espirtu en dos mitades parte.

En segundo lugar encontramos versos hipermétricos, pero sin que haya ningún aspectos del texto (ni errata ni variante textual) que nos haga pensar en un error de edición. Así ocurre con el siguiente ejemplo de Mira de Amescúa:

no des troncha, si des troncha, no destronca.

Por último, hay versos erróneos para los que hemos detectado variantes textuales correctas en otras ediciones, como en el siguiente verso de Juan de Salinas:

si disimula, de blando es muy sobrado;

La variante correcta es la siguiente:

si en algo disimula, acobardado.

Solo las erratas evidentes han sido corregidas. Para el resto, el corpus es fiel a la edición de la Biblioteca Virtual Miguel de Cervantes (manteniendo, en su caso, el patrón métrico erróneo). En el futuro, sin embargo, se buscarán o se realizarán ediciones críticas que permitan determinar las diferentes variantes de los versos, la lectura preferida y el patrón métrico correcto correspondiente.

4.2. Problemas derivados del sistema de escansión métrica

Para poder realizar un tratamiento correcto de sinalefas y diéresis, el sistema automático de escansión necesita saber de antemano el tamaño del verso. Para este corpus, el sistema espera versos de once sílabas.

Hay algunos sonetos, sin embargo, que contiene versos (uno o más de uno) que no son endecasílabos. Así ocurre, por ejemplo, en los sonetos con estrambote, donde suelen usarse otro tipos de versos como el heptasílabo. El sistema, al esperar versos de once sílabas, ha determinado patrones métricos de ocho o nueve sílabas según los casos. Estos patrones métricos se han corregido a mano.

Las dos principales causas por las que el sistema de escansión analiza mal la métrica de un verso son por un análisis incorrecto de la categoría gramática o por una detección errónea de las sinalefas.

En primer lugar, puede ser que la categoría gramatical de una palabra no sea la correcta. Una palabra se considera átona o tónica a efectos métricos según su categoría gramatical. Así, nombres, verbos o adjetivos son palabras tónicas; frente a artículos o preposiciones que son átonos (Quilis, 1984).

Para determinar la categoría gramatical, el sistema utiliza el módulo de análisis categorial de Freeling (Padró y Stanislovsky, 2012). Este tipo de analizadores suele tener un pequeño margen de error, ampliado cuando se aplica a textos literarios. Así, por ejemplo, la contracción «do» del siguiente verso («donde») debería ser átona al ser adverbio. El sistema de escansión, sin embargo, la analiza como tónica porque el analizador categorial la ha clasificado como nombre (la nota «do»). Estos errores se están corrigiendo a mano.

do Amor sus rayos templa en dulce fuego

Patrón correcto:

do Amor sus rayos templa en dulce fuego

En segundo lugar, puede ser que las sinalefas o diéresis realizadas no sean las apropiadas. En función de la cantidad de sílabas del verso, el sistema determina cuántas sinalefas o diéresis debe realizar. Cuando hay varias opciones, selecciona el patrón métrico resultante más frecuente. Sin embargo, esta selección a veces no es la correcta, como en el siguiente verso de Lope de Vega.

No fuera tan cruel mi airada suerte

La escansión correcta requiere hacer diéresis en «cruel» (crü-el) y sinalefa en «mi_airada». El sistema no ha detectado esta posibilidad y ha dejado un patrón métrico erróneo con acento en quinta. Estos versos raros con baja frecuencia se están revisando todos y, en su caso, son corregidos:

No fuera tan cruel mi airada suerte

4.3. Problemas generales de interpretación

Hay, finalmente, algunos casos donde el propio verso genera dudas a los anotadores a la hora de determinar su patrón métrico: son casos con algún tipo de ambigüedad, por lo que resulta difícil llegar a un acuerdo. Así ocurre, por ejemplo, con los vocativos, donde no siempre está claro si son tónicos o átonos, como el «señora» del siguiente verso de Garcilaso de la Vega:

Señora mía, si de vos yo ausente

Considerando el vocativo como átona, el patrón métrico queda así:

Señora mía, si de vos yo ausente

Algunos términos o partículas como «mientras», «ya que», «así», «daca», «arre», «tan» o «aun» son ambiguos en algunos versos. La decisión final sobre cómo marcar estos versos es del anotador, si bien se señala la dificultad para revisar la anotación con posterioridad.

Estos son los principales problemas tratados en la anotación métrica del corpus de sonetos del Siglo de Oro. En la comunicación final se presentarán y comentarán más ejemplos sobre estos mismos problemas.

Financiación

Trabajo financiado por la Fundación BBVA, ayudas a equipos de investigación científica, proyecto Análisis distante de base computacional del soneto castellano del Siglo de Oro.

Bibliografía

JOCKERS, Matthew L. (2013), Macroanalysis. Digital Methods and Literary History, Illinois (EEUU), University of Illinois Press.

MORETTI, Franco (2007), La literatura vista desde lejos, Barcelona, Marbot ediciones.

NAVARRO COLORADO, Borja (2015), «A computational linguistic approach to Spanish Golden Age Sonnets: metrical and semantic aspects», Proceedings of the Fourth Workshop on Computational Linguistics for Literature, Denver (EEUU), junio 2015.

NAVARRO COLORADO, Borja (2017), «A Metrical Scansion System for Fixed-Metre Spanish Poetry», Digital Scholarship in the Humanities.

PADRÓ, Luis y STANILOVSKY, E. (2012), «FreeLing 3.0: Towards Wider Multilinguality», Proceedings of the Eighth International Conference on Language Resources and Evaluation (LREC 2012), Estambul, mayo 2012.

QUILIS, Antonio (1984), Métrica española, Barcelona, Ariel.

ROJAS CASTRO, Antonio (2016), Editar las Soledades de Luis de Góngora en la era digital: Texto crítico y propuesta de codificación XML/TEI, Universitat Pompeu Fabra.

TEI CONSORTIUM (ed.) (2016), TEI P5: Guidelines for Electronic Text Encoding and Interchange, Version 3.1.0. Last modified 15th December 2016, TEI Consortium. En: (Fecha de consulta: 19/04/2017).

[1] <http://www.cervantesvirtual.com/bib/portal/bibliotecasoneto/>.

[2] .

[3] .

[4] .

[5] .

Parámetros multivariantes para el tratamiento de datos lingüísticos digitales (LYNEAL): puntuación manuscrita con función discursiva en documentación cancilleresca (siglo XIII)

Leyre Martín Aizpuru
Universidad de Salmanca

Hiroto Ueda
Universidad de Tokyo

Plabras clave: puntuación manuscrita, función discursiva, tratamiento de datos lingüísticos, parámetros multivariantes, LYNEAL
Keywords: handwritten punctuation, discursive function, linguistic data processing, multivariates parameters, LYNEAL

El objetivo de esta comunicación es presentar los resultados de un estudio realizado en colaboración entre la perspectiva tradicional de la Filología –confección de un corpus, transcripción paleográfica y análisis de fuentes documentales originales– y las herramientas digitales, en este caso, relacionadas con la extracción de datos cuantitativos y estadísticos. Consideramos ideal este foro para mostrar, a partir de los datos, la metodología de trabajo y, sobre todo, el potencial de LYNEAL (Letras y Números en Análisis Lingüísticos: <http://shimoda.lllf.uam.es/ueda/lyneal/>), cuya finalidad es analizar los fenómenos lingüísticos en un marco amplio de parámetros multivariables relevantes.

El aspecto filológico que analizaremos es la función discursiva del sistema de puntuación manuscrita tal y como es empleado por parte de los redactores de la cancillería real castellana en un periodo suficientemente amplio (1223-1312) como para observar posibles cambios en dichos usos. Este ha sido un tema relativamente desatendido en la filología hispánica, si bien en la tradición francesa hay ya numerosos artículos y tesis doctorales, que nos sirven como base. La primera motivación que nos llevó a estudiar el sistema de puntuación de la documentación expedida por la cancillería real castellana fue el trabajo de transcripción paleográfica de la misma ya que fue en ese momento cuando nos preguntamos cuáles eran las intenciones de los escribanos al puntuar el texto en un lugar donde nosotros no lo solemos hacer hoy en día, según las reglas de puntuación vigentes.

En una primera fase, a partir de un acercamiento cualitativo, hemos realizado una propuesta de clasificación de los usos de los diferentes signos de puntuación empleados y observamos, entre otras regularidades, la relación directa entre el uso de los signos y los límites entre una y otra parte diplomática de las cartas, que mostramos en los siguientes ejemplos:

  1. Separación de la salutatio y la notificatio: salt & gram. Sepades que yo falle
  2. Separación de la directio-intitulatio: Sepan quantos este Puilegio uieren & oyeren. Cuemo nos don ALFONSO
  • Separación entre el protocolo inicial y la expositio: & Senor de Molina. enuno cola Reyna dona COSTANÇA mi mugr. Por q el Conçeio de Ouiedo. nos enbiaro
  1. Introducción de la validatio: sobredicho todo el dano doblado. E por q este Puilegio sea firme
  2. Separación entre validatio y data: ffe{7}cho el Puilegio en Soria por nro mandado. Lunes. diez & dos dias andados del mes de Abril.

En esta segunda fase de nuestra investigación, que presentamos en esta comunicación, llevaremos a cabo un análisis cuantitativo y estadístico de la relación entre estos dos elementos: puntuación y estructura textual. Tendremos en cuenta, asimismo, otros aspectos externos que tienen repercusión directa en la escritura de los documentos: los funcionarios de la cancillería –iussores y redactores– y la naturaleza jurídica de los documentos –privilegio rodado, carta notificativa, carta intitulativa o carta mixta–.

Para ello, integraremos los documentos, en el sistema LYNEAL –en formato .txt y con separadores de tabulación– ya que por medio de este sistema podemos realizar búsquedas avanzadas que tienen en cuenta parámetros multivariantes tanto de índole intralingüísticas (entorno textual, posición dentro de palabra, coocurrencias, etc.) como extralingüísticas (espacio, tiempo, estilo, registro, etc.).

En cuanto al tratamiento estadístico de frecuencias facilitado por Lyneal partiremos de la Frecuencia Absoluta, la Relativa (porcentaje) y la Normalizada por mil palabras, a los que sumaremos la Frecuencia Probabilística, recién introducida en el sistema. Esta última tiene la función de evaluar los valores estadísticamente comparables basándose en la probabilidad expectativa y la probabilidad de seguridad. Demostraremos la validez de la última frecuencia comparada con las tres anteriores tradicionales. A partir de la matriz construida de Frecuencias Probabilísticas realizaremos el Análisis de Conglomerado (Cluster), el de Componentes Principales y finalmente el de la Correspondencia Unilateral. El último método, que presenta la distribución patronizada unilateral, de casos o de parámetros separados, es un nuevo método nuestro desarrollado a partir de la teoría del Análisis de Correspondencia de larga tradición, que ha venido ofreciendo la distribución patronizada bilateral, de casos y parámetros al mismo tiempo.

The Diversity Debate in DH: Where Is the Bias?

Fabio Ciotti
University of  Roma “Tor Vergata”

Palabras claves: Definiendo DH; Diversidad e inclusividad en DH; DH multicultural; Prejuicios culturales y éticos de la informática.
Keywords: defining DH; diversity and inclusivity in DH; multicultural DH; cultural and ethical biases of computing.

In the last years, it seems that the polarization of the debate in the global Digital Humanities’ community has moved from the recurrent theme of the self-definition of the field, to the somewhat correlated one of how inclusive/diverse or not inclusive/diverse Digital Humanities are. Actually, the modalities and the relevance of this debate are not the same in the different cultural macroareas in which the community is articulated, but after all this is in itself a manifestation of its diversity, and an indirect proof of the significance of the theme.

This debate covers different areas: from problems like multilingualism and multiculturalism in international conferences (brilliantly analyzed by Dacos, 2014) and the meritorious pragmatic activities – carried out both at individual and organizational level – to face them. To a set of critical theory like arguments that harshly criticize the historical or mainstream assets and statutes of Digital Humanities and advocates the necessity to include in the field «intersectional approaches» and gender, race, culture and sexual oriented studies. The shared basic assumption of this debate is that DH is not (enough) inclusive and open to diversity as it might/should be.

Many recent articles and papers, usually coming from advocates or supporters of the critical approach, have mapped in a satisfactory way this discursive field: see for instance Risam (2015) that in the context of an overall argument fostering intersectionality in DH, makes a broad review of the most relevant recent contributions in this field. The theme of diversity and inclusivity had a wide coverage at the DH 2016 Conference, as well: we can mention here the «Boundary Land: Diversity as a defining feature of the Digital Humanities» panel (O’Donnell et al, 2016) and, for a comprehensive review, the blog post by Amy Earhart «Inclusive Dh2016: Papers and posters that address gender, race, sexuality, and cross cultural language issues» (2016). Still more recently Barbara Bordalejo has organized a conference in Leuven whose title was «Intersectionality in DH», with papers from many of the main protagonists of this debate <http://www.arts.kuleuven.be/digitalhumanities/intersectionality>.

Coming to some specific aspects, we can cite some epitomizing articles like Why Are the Digital Humanities So White? or Thinking the Histories of Race and Computation, where Tara McPherson (2013) tries to demonstrate how the architectural foundations of UNIX operating system are isomorphic with the ideology of technocratic organization of the society typical of late capitalism. Or Whence Feminism? Assessing Feminist Interventions in Digital Literary Archives, where Jacqueline Wernimont (2013) argues for the «possibility of a feminist assessment of digital literary archives and the interdisciplinary tools needed to do such work» and criticizes the simplistic idea that merely collecting digital cultural resources produced by women (but we could extend this criticism to any kind of archive containing secluded subjectivity’s cultural products) can solve the problem of gender unbalance in the digital(ized) culture. Kim Gallon (2016) in his «Making a Case for the Black Digital Humanities» recently published in the miscellaneous volume Debates in the Digital Humanities 2016 (Gold and Klein, 2016) examines a possible convergence of DH and Black Studies. In the same volume we can find a number of other articles dealing with diversity/inclusivity issues like Fiormonte’s (2016) critical assessment of the geopolitical and cultural/linguistic bias in the contemporary DH global scenery.

The review could continue, filling several pages. Though, it is not my intention in this paper to even try to make a thorough and detailed reconstruction of this lively and complex debate, that is intertwined with epistemological, methodological, ethical, political and sociological issues, as well as very it is often related with personal feelings, point of view and psychological moods – unavoidable but surely hard to analyze and systematize in a theoretical discourse.

The very objective of my paper is trying to make some work of theoretical clarification at a very fundamental level. The starting point of my argument is a simple question: if we say that Digital Humanities are actually in a situation of non-equitable representativeness in term of gender, race, culture and sexual diversity that we can find in the reality, where is the bias? Where can we theoretically situate the origin of the «disequilibrium»? Is it something intrinsic to the nature of the field, rooted in its deep methodological and theoretical rationales, or does the problem emerge at higher levels?

Obviously, the possibility of such an analysis presupposes a determinate vision of what DH are. It is impossible to delve into this vision here. In first approximation I can say that I understand DH as the theoretic and methodologically aware application of computational methods and models to the domain of humanities sciences in their complexity, in order to gain a better or novel understanding of the objects ad phenomena composing that domain, of their nature, structure and value and to foster new interpretations of them. With this broad definition in hands, we can identify at least the following different levels where the inequalities can reside or whence they can be generated:

  • The level of the fundamental and generic formal methods and concepts adopted in DH, that are mostly co-extensive with those of theoretical computer science: the notions of computation, algorithm, Turing-machine, formal modeling, formal language.
  • The level of the specific models and formal languages, algorithms and data models adopted in DH research.
  • The level of the implementations of those specific data models and algorithms in actual tools, databases, frameworks, pieces of software.
  • The level of the data sets and of digital resources collections produced using computational tools and frameworks.
  • The level of the individual and community practices, the pragmatic choices followed in using tools to create resources.
  • The level of the cultural and socio-economic environment that structures and organizes the work of those individuals and communities.

I think that most of the issues (and criticisms) emerging from the inclusivity/diversity debate can be assigned to one of these level of description. For instance, the argument proposed by McPerson (2013) or the debate about the possibility of a «Feminist Programming» (Lasmana, 2014) can be mostly associated with the level (2), while Fiormonte’s analysis is fundamentally ascribable to level (6).

My thesis is that the arguments that tries to assert that the causes of non-diversity/inclusivity in DH are to be found at level (1) are false since at this level DH simply inherits a set of universal notions and concepts developed in mathematical and logical languages that are fundamentally independent from any cultural bias. In my (and not only mine) view, the notion of algorithm, of Turing-machine, of formal language are conceptual invariant across cultures, ideologies, ethical stances and beliefs.

The discourse for level (2) is rather more complex, since I agree that some kind of generic data structures or some algorithmic solutions can implement some particular way of seeing the world; or that they are governed by specific and idiosyncratic objectives and value-laden (Mittelstadt, 2016; Wiener, 1989). Nonetheless, I firmly believe that most of those structures and formalizations are general enough to represent in most cases the optimal solutions to face and solve determined class of problems. The exceptions to this generality are to be taken as such, individual use cases that are particularly difficult (for instance I would assign to these categories the problems raised by Unicode data model for the representation of features of non-Western scripts).

Starting from level (3) economic and cultural views, together with technical and engineering limits, start to have a relevant influence: the way a specific DBMS is implemented, the nature of the metaphors adopted in implementing interfaces, the way a relational data model describes a determined domain, all are potentially subjects to biases. Nevertheless, I think that most of the biases and restrictions in diversity (of any kind), are ascribable to the last two levels, those of the individual and community practices and of their social and cultural contexts and conditions.

DH inclusivity and diversity issues are in most cases (if not all) social problems determined by the socio-economic and cultural structures that govern the behavior (often in unconscious ways) of the individual and collective subjects (particularly the economical unbalances). This is the level where the DH community should concentrate its own efforts to become more open, diverse and inclusive.

Bibliography

DACOS, M. (2014), «La stratégie du sauna finlandais», Blogo Numericus. En: .

EARHART, A. (2016), «Inclusive Dh2016: Papers and posters that address gender, race, sexuality, and cross cultural language issues», The Diverse History of Digital Humanities. En: .

FIORMONTE, D. (2016), «Toward a Cultural Critique of Digital Humanities», en GOLD, M. & KLEIN, L. (eds.), Debates in the Digital Humanities 2016, Minneapolis, London, University of Minnesota Press, pp. 438-458.

GALLON, K. (2016), «Making a Case for the Black Digital Humanities», en GOLD M. & KLEIN L. (eds.), Debates in the Digital Humanities 2016, Minneapolis, London, University of Minnesota Press, pp. 42-49.

GOLD M. & KLEIN L. (eds.), Debates in the Digital Humanities 2016, Minneapolis, London, University of Minnesota Press.

LASMANA, V. (2014), «Critical Code Studies Working Group 2014: Week 2 Highlights», Critical Code Studies Working Group. En:  .

MCPHERSON, T. (2013), «Why Are the Digital Humanities So White? or Thinking the Histories of Race and Computation», en GOLD, M. K. (ed.) (2013), Debates in the Digital Humanities, Minneapolis, University of Minnesota Press.

MITTELSTADT, B., ALLLO, P., TADDEO, M., WACHTER, S. & FLORIDI, L. (2016), «The Ethics of Algorithms: Mapping the Debate», Big Data & Society, n.º 3, p. 2.

O’DONNELL, D., BORDALEJO, B., MURRAY RAY, P., DEL RIO, G., GONZÁLEZ-BLANCO, E. (2016), «Boundary Land: Diversity as a defining feature of the Digital Humanities», en Digital Humanities 2016: Conference Abstracts, Jagiellonian University & Pedagogical University, Kraków, pp. 76-82.

RISAM, R. (2015), «Beyond the margins: Intersectionality and the digital humanities», Digital Humanities Quarterly, n.º 9, p. 2.

WERNIMONT, J. (2013), «Whence Feminism? Assessing Feminist Interventions in Digital Literary Archives», Digital Humanities Quarterly, n.º 7, p. 1.

WIENER, N. (1989). The human use of human beings: Cybernetics and society, London, Free Association Books.

Mediación digital de la memoria contestada y la Guerra Civil española

Paul Spence
King’s College London

Parece claro que la cultura y la tecnología digital tienen implicaciones importantes para el estudio de la memoria histórica – tanto en su material de estudio como en su práctica como campo – que se manifiestan en varias maneras, bien sea como digitalización de fondos, procesos de archivo, debates por medios sociales, tecnología ponible o geolocalización. Algunos sostienen que el campo científico de los estudios de la memoria (memory studies en inglés), todavía no se ha adaptado del todo al cambio desde la cultura impresa hasta un panorama de la información mediada por lo digital, y Hoskins (2011) propone una «nueva ecología de la memoria» para estudiar el campo en este nuevo contexto histórico. ¿Qué tiene que ver las humanidades digitales con este reto, y qué pueden aprender de esta nueva ecología que propone Hoskins?

Los investigadores en humanidades digitales han trabajado bastante en crear e analizar arquitecturas del conocimiento, en campos como la literatura, la historia, la lengua y el patrimonio cultural, pero los estudios enfocados sobre la memoria histórica son menos comunes. Esta propuesta se basa en un estudio que empecé en 2015 a raíz de un encuentro para estudiar las condiciones para un proyecto digital sobre la guerra civil española. Mi estudio contempla varios aspectos de la mediación digital actual (o posible), que incluyen los archivos, la infraestructura y los llamados ecosistemas digitales, los lugares de la memoria (Nora, 1989) digitales, y en suma, los retos que hay que entablar para tratar un hecho histórico que sigue atrayendo respuestas muy variadas y a veces en conflicto.

En su aspecto archivístico la guerra civil española presenta varios ejemplos digitales, desde los archivos institucionales como el Archivo Histórico Nacional (AHN) de España o el Centro Documental de la Memoria Histórica (CDMH) en Salamanca hasta los intentos de grupos e individuos a crear archivos personales en la red. Si bien la cultura digital ofrece opciones para recalibrar los archivos, alejándoles de las narrativas nacionales ideológicas de siglos pasados, estamos todavía lejos de ver una plena «animación de los archivos» como proponen Burdick et al. en su visión de «palacios de la memoria» con «paredes permeables» (2012). ¿Cómo sería, por ejemplo, si aplicáramos a los datos personales en los archivos de la guerra civil española la misma metodología empleada por la base de datos sobre nombres de víctimas del Shoah (Holocausto), que permite a los lectores seguir historias personales de individuos asesinados por los nazis, y que facilita el enriquecimiento del archivo con contribuciones del público a través de testimonios nuevos, en el espíritu de la construcción social de la memoria histórica? Mi estudio también asesora la variedad de funcionalidad, procesos de filtraje posibles por parte del usuario y principios de diseño intelectual en archivos que guardan material sobre el conflicto español, como el Modern Records Centre en la universidad de Warwick o el TNA de Reino Unido.

Ha habido varios intentos de crear infraestructura digital sobre la guerra civil. Una opción es el modelo de red tomado por la iniciativa Memorial Democràtic en Barcelona[1], que pretende reunir a múltiples testimonios, perspectivas y caminos por los lugares de la memoria asociados a la guerra civil. En plan similar se encuentra Memoria en Red, una colaboración entre varios investigadores jóvenes de Estudios de Memoria interesados en la memoria en sentido más general[2]. La alianza Memoria Abierta[3] ofrece un modelo de portal, reuniendo recursos sobre las violaciones de los derechos humanos, terrorismo de estado y acciones de resistencia en el pasado reciente en Argentina, mientras que la Coalición Internacional de Lugares de Conciencia, de la que forma parte, ofrece modelos para gestionar objetos de memoria según los estándares internacionales dentro de un modelo integrado. Todos estos ejemplos ofrecen modelos de unir testimonios sobre la memoria histórica, pero ¿qué hacer cuando se quiere reunir a varios archivos, sin que cada uno pierda su autonomía, y respondiendo de forma dinámica a la necesidad de los investigadores? Esto es el propósito del EHRI, una infraestructura europea para la investigación del Holocausto, que ofrece herramientas para la marcación, la conectividad de contenidos y la visualización (Anderson y Blanke, 2015). Basándose en el marco de los scholarly primitives de Unsworth (2000), los autores proponen una infraestructura técnica que sea flexible, y que pueda mostrar los caminos de proveniencia de las fuentes y los procesos de investigación. A escala mayor, este tipo de infraestructura de investigación sobre la memoria histórica puede transformar cómo «leemos» los archivos de la memoria, cómo manejamos los procesos de validación y contraste de testimonios de naturalidad diversa.

El auge en llamamientos para la exhumación de víctimas de la guerra civil, que tomó fuerza en 2000 (Erraskin Agirrezabal and Martínez Rodríguez, 2014), catalizó una serie de respuestas populares a la falta general de instituciones o monumentos físicos en España que pudieran canalizar la memoria historia sobre el conflicto, muchas de ellas viéndose luego representadas en formato digital, en sitios web (autogestionados o en medios sociales) dedicados al exilio republicano (Bocanegra Barbecho y Toscano, 2016), a los represaliados de la guerra y posterior represión franquista[4] o la visualización geoespacial de fosas de la víctimas[5]. El ciberespacio sigue demostrando ejemplos de las divisiones históricas sobre la guerra (Eiroa, 2014) y el proyecto Hismedi intenta afrontar los retos para catalogar y estudiar perspectivas distintas de un conflicto que todavía levanta opiniones contrarias, y el proyecto plantea unas preguntas importantes, no solo de cómo acceder a materiales muy heterogéneos de formato y plataforma, sino también de cómo podemos tratar las opiniones contrarias en la historia contestada. Se puede plantear: ¿las infraestructuras de la memoria son más eficaces cuándo buscan la coherencia o la cobertura «comprensiva»? ¿Cuáles con los nuevos sesgos introducidos por las plataformas digitales? ¿Qué nuevos sistemas de validación científica, medidas de confianza debemos introducir en una economía mixta de recursos de la investigación y recursos digitales creados de manera «social»?

En conclusión, la mediación digital de la memoria contestada no borra las diferencias, ni la controversia, pero sí cambia la relación entre la producción y la recepción de memorias, creando nuevos plataformas, modelos y procesos que marcan los procesos de interpretación que dan forma a nuestras memorias históricas y culturales. Usando casos de estudio de las humanidades digitales y otros campos científicos cercanos, mi presentación examinará las dinámicas de la memoria en entornos digitales, los nuevos interfaces de la memoria, la «gira de conectividad» y los encuentros en línea en relación a narrativas de conflicto. Sostengo aquí que este encuentro entre el pasado (material digitalizado) y el presente (contenido que nace en formato digital) – que reúne a archivos, medios sociales, infraestructura, datos, geolocalización e identidad digital –  debe ser una nueva prioridad para las humanidades digitales.

Bibliografía

ANDERSON, S. & BLANKE, T. (2015), «Infrastructure as intermeditation – from archives to research infrastructures», Journal of Documentation [Online], 71 (6), pp. 1183–1202.

BOCANEGRA BARBECHO, L. & TOSCANO, M. (2016), «The Spanish Republican Exile: Identity, Belonging and Memory in the Digital World», en BOROWIECKI, Karol Jan et al. (eds.), Cultural Heritage in a Changing World, Springer International Publishing, pp. 237–253. En: (Fecha de consulta: 06-03-2017).

BURDICK, A. et al. (2012), Digital humanities, Cambridge, Mass, MIT Press. [online]. En: (Fecha de consulta: 11-03-2015).

EIROA, M. (2014), «La Guerra Civil Española en la actualidad cibermediática», Studia Historica. Historia Contemporánea. 32 (0), pp. 357–369.

ERRASKIN AGIRREZABALA, M. & MARTÍNEZ RODRÍGUEZ, R. (2014), «Realms of Memory and the recovery of the historical Memory of the Spanish Civil War and Franco’s dictatorship (1936–2012)», en KIDD, Jenny et al. (eds.), Challenging History in the Museum: International Perspectives, Farnham, Surrey, England,  Burlington, VT, Routledge.

HOSKINS, A. (2011), «Anachronisms of Media, Anachronisms of Memory: From Collective Memory to a New Memory Ecology», en NEIGER, Motti et al. (eds.) (2011), On Media Memory: Collective Memory in a New Media Age, Basingstoke, Hampshire, New York, AIAA, edition Houndmills, pp. 278–288.

NORA, P. (1989), «Between Memory and History: Les Lieux de Mémoire», Representations, [Online] (26), pp. 7–24.

UNSWORTH, J. (2000), «Scholarly Primitives: what methods do humanities researchers have in common, and how might our tools reflect this?». En: (Fecha de consulta: 03-08-2015).

[1] .

[2] .

[3] .

[4] .

[5] .

La imagen digital en el arte medial cubano: inmaterialidad y resistencia ante el modelo cultural hegemónico

 Mónica R. Ravelo García  
Universidad de Valparaíso

Palabras claves: arte digital, Cuba, resistencia.
Keywords: digital art, Cuba, resistance.

La presente investigación aborda el paso de los artistas plásticos cubanos, formados en artes tradicionales, al campo de lo digital para realizar un arte de resistencia sociocultural y política entre 2000 y 2015. Este paso tiene implicaciones particulares en el caso cubano pues la isla caribeña es uno de los países reconocidos por los especialistas como de menores niveles de accesibilidad a los medios, ya sea por baja infraestructura como por decisiones políticas. En cuanto al acceso a la red, Cuba es considerada en algunos estudios como uno de los diecisiete países con mayores niveles de censura en el mundo. Dada la intrincada historia de la informatización nacional, el uso del medio digital en el arte cubano puede ser comprendido también como una reacción crítica a un modelo de sociedad.

Asimismo, el paso de las artes tradicionales a las digitales tiene implicaciones estéticas y artísticas específicas. Los estudiosos demuestran que el paso de los artistas al campo digital implica la entrada a una nueva cultura de la imagen y a una nueva era en los ámbitos de la percepción y de la subjetividad. Han cambiado los status de la obra de arte, del autor y del receptor. Por el efecto de todo ello en la polis, el uso de lo digital deviene en asunto político.

Dadas las dificultades de acceso a los medios digitales en Cuba, su paulatina penetración en los espacios de formación profesional, y las tácticas con que los artistas utilizan los recursos visuales y procedimentales de lo digital, proponemos relacionar el uso de lo binario con un sentido de arte de resistencia. Esta toma formas específicas en el contexto cubano, que se diferencian sobre todo en dos vertientes: uso de lo digital en la creación de imágenes, tendentes en muchos casos a crear lenguajes híbridos entre soportes tradicionales y técnicas digitales, incluso, a la mixtura de estos con las manifestaciones tradicionales, y uso del soporte eminentemente digital.

Finalmente, aportamos una relación entre esa forma de resistencia con las estrategias de sobrevivencia cimarrona a partir del sentido de lucha de clases y de acceso a los medios de producción. Proponemos esta relación como parte de una teoría propia y como aporte de la presente investigación.

Dados los antecedentes estudiados tanto en contextos internacionales como en el nacional, vertebramos la ponencia bajo la siguiente pregunta: ¿De qué manera los artistas visuales utilizan la imagen digital para realizar un arte de resistencia ante el modelo cultural hegemónico?

La ponencia se basa en tres apartados que abordan el contexto artístico y sociopolítico de la creación, las características de las prácticas artísticas, y las formas de resistencia desde el arte con la inclusión de lo digital ante la realidad de su contexto:

  1. Contextualización sobre la realidad cubana en cuanto al acceso y desarrollo a las TIC y su influencia en espacios académicos

La realidad cubana aún se encuentra distante del desarrollo informático de muchos países en el mundo, lo cual ha influido en sus expresiones socioculturales y artísticas. Sobrevive el intercambio inmediato y real, en términos interpersonales, afectivos y en las distintas áreas del desarrollo material. Del mismo modo, el modelo cultural hegemónico propone tipos de temporalidad, interactividades particulares que se diferencian de los países tecnológicamente desarrollados.

La precariedad y limitación para el acceso a los medios digitales ha influido en los sistemas de estudio, la formación de los artistas y en el desarrollo de sus trabajos. Sin embargo, de modo paulatino y con cierto desfase, pero notoria creatividad, lo digital ha ganado terreno en el arte nacional. Eso ha ocurrido especialmente a partir de 2000 y, notablemente, en las obras de artistas visuales formados en academias con una alta formación en las artes tradicionales.

La tendencia creciente a la inclusión de la imagen digital en sus trabajos, puede ser vista como una pujanza desde el arte por la construcción de nuevas sensibilidades, percepciones y de un modelo distinto de sociedad.

  1. Lo digital en las obras de artistas visuales: convivencias y resistencias en el arte transmedial cubano

Partimos del análisis de las obras de siete artistas cubanos, formados en el Instituto Superior de Arte (ISA, ahora llamado Universidad de las Artes) de La Habana y de academias de nivel medio entre 1990 y 2015. Los artistas han sido seleccionados teniendo en cuenta la creatividad de sus obras, la variedad de soportes y expresiones de lo digital presentes en sus trabajos a lo largo del tiempo, así como al reconocimiento institucional dentro y fuera del país.

Vemos que el proceso de inclusión de los procedimientos y recursos visuales digitales en las trayectorias de cada autor se ha dado de modo paulatino. Sin embargo, notamos un proceso de aceptación gradual de lo digital entre las distintas promociones, de modo que los primeros graduados se acercan de modo más cauto y a partir de formatos convencionales mientras los graduados en fechas recientes, denotan una aceptación temprana de los recursos digitales.

En nuestro trabajo, observamos cómo los artistas aprovechan las oportunidades propias del medio digital para desarrollarse principalmente en dos vertientes: la hibridez de manifestaciones tradicionales con lo digital y las obras realizadas en y para el entorno informático, a partir del net.art. Todo esto, para cuestionar la realidad contextual relacionada con la censura al derecho de información y comunicación, la emigración, la precariedad material, el racismo y la discriminación de género. De ese modo, partimos del lugar de lo digital y su imbricación con otras artes para la realización artística y visual, y de los temas abordados.

En cuanto a las soluciones artístico-visuales y técnicas, estudiamos las formas de la materialidad en las obras, y los sentidos de temporalidad, espacialidad, continuidad, interactividad, virtualidad propuestos. Esto, tanto en las prácticas artísticas que utilizan formatos bidimensionales, incluyendo artes tradicionales y digitales, en instalaciones digitales, hasta performances con distintas inclusiones de lo digital, como en el net.art.

  1. El nuevo cimarrón: Lo digital en el uso de los medios y formas camufladas de resistencia sociocultural y política

En el presente estudio, observamos que la pujanza desde el arte por la inclusión de lo binario va a contrapelo de las políticas oficiales y del modelo de sociedad desarrollado hasta el momento. Este ha estado marcado por un discurso único y monolítico; el relato lineal de la historia y del presente; el sentido detenido del tiempo; la inmediatez de las interacciones humanas; la relación directa con el mundo material. Dado esto, proponemos valorar la inclusión de lo digital en el arte realizado por artistas plásticos como una forma de resistencia, no solo en el campo de los lenguajes visuales sino, sobre todo, en términos político-sociales. Lo binario, por su propia naturaleza, introduce nuevos sentidos de espacialidad, temporalidad, interactividad, materialidad, continuidad/simultaneidad, virtualidad.

A partir de estas características, comenzamos a perfilar la conceptualización de la resistencia en el uso de lo digital en el arte cubano. Esta última se nos expresa como una relación particular entre artistas e instituciones a partir de mecanismos tácticos y estratégicos. Hasta el momento, hemos relacionado la resistencia digital con el cimarronaje cultural a partir del acceso a los medios de producción de conocimiento. Por tanto, entendemos el fenómeno como una forma de resistencia desde el arte cubano que utiliza directamente, o sugiere a partir de otras manifestaciones, los recursos visuales y/o procedimientos técnicos del mundo digital. Ello implica una relación particular de estrategias y tácticas con un discurso oculto de sobrevivencia realizada desde el arte para el cuestionamiento de distintas problemáticas de la realidad sociopolítica nacional, así como para el acceso a los medios digitales y a la red.

Estructuramos el estudio de este fenómeno teniendo en cuenta los siguientes aspectos: problemáticas abordadas por los artistas; soluciones visuales; formas en que son incluidos los recursos digitales (visuales y procedimentales); sentidos de interactividad, materialidad, virtualidad, continuidad, temporalidad y espacialidad presentes en las obras; movilidad espacial; prácticas de “desvío” individuales y comunitarias; diálogo con las instituciones culturales cubanas y foráneas; cuestionamiento del discurso oficial hegemónico.

Los artistas y obras propuestos son:

  • Tania Bruguera (1968): Plataformas: Instituto Internacional de Artivismo «Hannah Arendt» (Instar), #Yo también exijo
  • José Ángel Vincench (1973): «Homenaje a Jiri Kolar» (2005), «Abstracto parece pero no es» (2006)
  • Sandra Ramos (1969): «Mar de lágrimas» (2004), «Pier» (2013)
  • Naivy Pérez (1986): «Portal» (2008), «Demos-Kratein» (2006), «Facts» (en proceso)
  • Mauricio Abad (1985): «Monólogos» (2006-2007)
  • Susana Pilar Delahante (1984): «Espejo de Paciencia» (2013), «El Deseo» (2014)
  • Francisco Masó (1988): «Proyecto Post Postproducción» (2012-2014), «Todo por 25» (2014)

Metodológicamente, se utiliza el saber cualitativo, el método inductivo, según el paradigma interpretativo y la perspectiva teórica del Análisis de Discurso Semiótico. Esta se alimentará de los enfoques sociológico, semiótico y estético.

Financiación

Becas Conicyt de Doctorado Nacional.

ID+Lab - Modelling Interdisciplinarity

Michael Dürfeld
Humboldt-Universität zu Berlin

Anika Schultz
Humboldt-Universität zu Berlin

Christian Stein
Humboldt-Universität zu Berlin

Palabras clave: Interdisciplinariedad, Modelado, Web semántica, Ontologías, Publicación científica digital
Keywords: Interdisciplinarity, Modelling, Semantic Web, Ontologies, Digital Scientific Publishing

  1. Image Knowledge Gestaltung – An Interdisciplinary Laboratory

The Excellence Cluster Image Knowledge Gestaltung at Humboldt-Universität zu Berlin is currently one of the most ambitious interdisciplinary research organisations worldwide. Over 350 researchers from over 40 disciplines in humanities, science and design/architecture are working closely together in diverse projects. The overall aim of this «Interdisciplinary Laboratory» is to understand, analyse and model one of the most discussed and still most complex concepts of research: Interdisciplinarity itself. Interdisciplinarity is demanded by funding guidelines for most international research projects, but the forms of implementation vary a lot and many projects fail or fall behind expectations exactly because of non working collaboration between the disciplines.

  1. ID+Lab – Modelling Interdisciplinarity

These problems are directly addressed by the research team «ID+Lab» as part of the «Interdisciplinary Laboratory». As an interdisciplinary team with researchers from the fields of Culture Theory, Linguistics, Information Science, Applied Informatics, Architecture and Design it has developed a method for modelling interdisciplinary structures, that exceeds listing of disciplines and topics and allows for a far more detailed look into the structures of interdisciplinary collaboration. The method is based on 11 actor classes, several relation types (ties) and modelling rules, that are found to be crucial for all interdisciplinary work. With this methodology it is possible to model research projects in a new way that reveals structural peculiarities or flaws and also shows new and promising connections to actors that are not yet associated.

Influenced by Network Theory (Harrison White), Actor-Network-Theory (Bruno Latour) and Systems Theory (Niklas Luhmann) actors are not only understood as human but as well as non-human actors. These eleven classes of actors in interdisciplinary research are: Person, Organisation, Topic, Task, Source, Method, Tool, Event, Place, Time and Money. Every actor has its own agency, relations to other actors and builds clusters of actors. According to Semantic Web Standards every relation or tie between actors is semantically defined. Beyond that, the ID+Model has got the following additions and specifications (see figs. 1 and 2):

  • «Potential Actors»: Besides existing and concrete actors, unknown or not yet clearly defined actors can be modelled. This is important for interdisciplinary research because there are a lot of actors, that are not clearly defined from the start. Knowledge in this sense is more a knowledge of non-knowledge and this needs a presentation inside the model.
  • «Potential Ties»: According to these Potential Actors not only actual existing ties but as well not yet existing but possible ties can be modelled. These Potential Ties expand the knowledge space of classical network models.
  • «Tie Values»: In addition to this specification according the state of the tie as an actual or a potential state every tie can be attributed by a value. A positive value means that the tie is according to the situation that is modelled important, a negative value means that the tie is useless or even hindering.
  • «Tie Intensities»: Last but not least, ties can be annotated by intensity – on the one hand by the intensity of time and on the other hand by the intensity of interest. Whereas modelling time-intensity gives important information about the research activities and their investment of time, the modelling interest-intensity gives important information, if the researcher likes or dislikes the work.

The modelling method is formally defined in an OWL ontology, that allows a general usage in the Semantic Web environment. The ontology integrates parts of existing ontologies like Dublin Core, FOAF or CITO and is compatible with common Semantic Web tools for modelling, crawling and visualisation.

  1. Usages

The ID+Method is usable for multiple research interests regarding three main fields:

  • «Digital Scientific Interdisciplinarity Research»: Existing interdisciplinary structures can be modelled to draw an explicit structure of the project development and show the factors that were relevant for the creation of its output. With these modelled structures it becomes possible to evaluate and compare general project setups and progress to detect patterns of successful configurations in interdisciplinary research. This meta perspective allows research organisations, institutes and faculties to get an overview of their activities and optimise their project planning.
  • «Digital Scientific Project Management»: A more application oriented approach is the self-modelling of a team that currently works with an interdisciplinary approach: They can document the different important situations in their research work. By modelling and visualizing them, they will find possible lacks in the project structure. This relates to all actor classes and derive measures for correction and optimization. Furthermore, possible connections to other projects or actors become visible and might be established. This makes the method a valuable tool to determine crucial factors for scientific project management and planning.
  • «Digital Scientific Publishing»: The third application relates to the outcome of an interdisciplinary project and contributes to the current debate about Open Science and Open Data. It is argued, that researchers should publish details to how exactly they achieved their results, how experiments were built and integrate raw data and the used algorithms in their publications. The ID+Method addresses this demand from a structural perspective and allows teams not only to publish their results and data, but also the interdisciplinary actor structure that made this work possible. This information is mostly hard to get, but very interesting for other researchers working on similar problems. It also allows for a higher visibility and connectivity of the published results for the publishing authors or teams themselves and therefore contributes to their genuine interest.
  1. First Applications

To use the method, diverse applications have been created that are connected to the habits of different disciplines. It is possible to use the method with analogue model drawing, using printable iconsets. The method is also compatible with digital modelling tools like the Open Source project Visual Understanding Environment (VUE) (see fig. 3). To guide through the modelling process, several questionnaires were developed, especially for beginners, that easily create models step by step for specific purposes like the modelling of a person or a publication. The method has been evaluated and refined in several areas by now. For example, projects in the «Interdisciplinary Laboratory» itself have been modelled and analyzed. Another test field was the workgroup «Two Cultures» within the German Young Academy which uses the method to model the academy itself and also historical interdisciplinary researchers. The interdisciplinary and intercultural master program «Open Design» uses the method for teaching and modelling the interdisciplinary structures of the students. These different usages were essential testings to constantly refine the requirements for an interdisciplinary modelling method.

  1. ID+App and ID+Stage

To transfer the method into a specific digital application the use case of Digital Scientific Publishing was chosen. Therefore a Web-App has been developed that combines a modelling tool (ID+App) with a publication platform (ID+Stage) that is specialised for interdisciplinary publications (see fig. 5). The result of the ID+App is an ID+Publication: it is a combination of the published research document as text, image, video, algorithm, dataset or object with the specific ID+Model of its interdisciplinary context. Published on the ID+Stage, publications are automatically connected through their models among each other. They form a highly connected publication graph that shows connections far more detailed than bibliographic methods can create. The user of the ID+Stage gains the benefit of reaching more potentially relevant material and understanding how it was created. The publishers become more visible, find new connections for their own work and gain a broader reader circle.

One central design challenge for the ID+App development was to give the users a clearly understandable entry point into the modelling process. Although the users can proceed very openly within the software and explore several ways of modelling, nevertheless the software is guiding the user in certain ways, e.g. by using visual hierarchies and arrangements of elements. For the ID+Stage an important aspect was to visualise the network including all actors and their relationships to each other. Legibility had to be guaranteed at different levels, ranging from an overview to detailed and comparative views. Furthermore the visualisations should adapt to individual requirements. ID+App and ID+Stage are in development right now.

 

Financing

The project is part of the Interdisciplinary Laboratory Image Knowledge Gestaltung, Cluster of Excellence of the Humboldt-Universität zu Berlin, funded by the German Research Foundation, DFG.

List of Figures

Image and video hosting by TinyPic
Figure 1 ID+Actors: 11 Classes of Actual and Potential Actors Anika Schultz | Bild Wissen Gestaltung 2017, CC by 4.0

Image and video hosting by TinyPic
Figure 2 ID+Ties: States – Values – Intensities Anika Schultz | Bild Wissen Gestaltung 2017, CC by 4.0

Image and video hosting by TinyPic
Figure 3 ID+ and VUE: Modelling Project Intersections Anika Schultz | Bild Wissen Gestaltung 2017, CC by 4.0

Image and video hosting by TinyPic
Figure 4 ID+App: The Modelling Tool Anika Schultz | Bild Wissen Gestaltung 2017, CC by 4.0

Image and video hosting by TinyPic
Figure 5 ID+Stage: The Publication Tool Anika Schultz | Bild Wissen Gestaltung 2017, CC by 4.0

Cartas olvidadas, fuentes explotadas. Edición y anotación de un corpus histórico epistolar

Gael Vaamonde
Universidad de Lisboa

Palabras clave: lingüística de corpus, corpus histórico, edición digital, cartas privadas
Keywords: corpus linguistics, historical corpus, digital edition, private letters

  1. Introducción

En esta comunicación presentamos los resultados del proyecto de investigación Post Scriptum, que ha sido desarrollado en la Universidad de Lisboa desde marzo de 2012 hasta marzo de 2017. Post Scriptum (en adelante PS) tiene por objeto la búsqueda sistemática, edición y estudio histórico-lingüístico de cartas privadas escritas en España y Portugal durante la Edad Moderna: desde el siglo XVI hasta el primer tercio del siglo XIX.

El punto de partida para la creación de PS surge de una posibilidad excepcional en la conservación de fuentes históricas. Los tribunales del Antiguo Régimen, tanto civiles como inquisitoriales, solían utilizar la correspondencia privada como una prueba instrumental para condenar o exonerar a sus autores, a sus destinatarios o a otras personas relacionadas o mencionadas en el contenido de las misivas. Por tanto, buena parte de esta documentación epistolar se conservó hasta nuestros días archivada en el interior de procesos judiciales de la época. Las cartas, en su mayoría inéditas, fueron escritas por gente de muy diversa índole: amos y criados, hombres y mujeres, niños y adultos, curas, artesanos, ladrones, soldados, amantes, etc. Generalmente, se trata de manos poco instruidas, que suelen tematizar asuntos de lo cotidiano y en las que predomina un discurso espontáneo que no suele tener cabida en otros corpus de corte diacrónico.

  1. Objetivos

Dada la riqueza histórica y lingüística de estas fuentes, PS adopta una perspectiva multidisciplinar mediante un equipo formado por lingüistas e historiadores y con el compromiso de cumplir tres objetivos centrales:

  • Objetivo documental. Dado que la mayor parte de estas cartas son inéditas, tomadas en conjunto vienen a constituir un patrimonio cultural en sí mismo. En PS desarrollamos un trabajo de recuperación de esta documentación manuscrita con la intención de reunirla en un único recurso electrónico: un archivo digital de escritura cotidiana.
  • Objetivo filológico. Preparamos una edición crítica digital de los manuscritos y de sus contextos históricos mediante una transcripción electrónica que conserva el rigor filológico. Además, ofrecemos dos niveles adicionales de acceso al texto: una edición con grafía normalizada y la propia imagen del facsímile.
  • Objetivo lingüístico. Convertimos el contenido de las cartas en dos corpus históricos con anotación lingüística, uno para el español y otro para el portugués. En términos cuantitativos, estamos hablando de dos corpus de un millón de palabras cada uno, lo que equivale aproximadamente a 2500 cartas por lengua.
  1. Búsqueda de fuentes

La recuperación de correspondencia privada escrita entre los siglos XVI a XIX se ha llevado a cabo mediante la consulta in situ de bibliotecas y archivos históricos, preferentemente de aquellos que cuentan con un repertorio más o menos amplio de fondos judiciales y/o inquisitoriales. Esto incluye tanto archivos de ámbito estatal como de ámbito regional, provincial o municipal, así como archivos diocesanos y arzobispales.

  1. Edición crítica digital

La codificación de los datos, tanto textuales como extratextuales, se ha realizado mediante lenguaje XML. Buscando practicidad y garantías de integración con otros corpus electrónicos, se han adoptado los estándares de anotación propuestos por el consorcio TEI (Text Encoding Initiative), por ser una convención internacional ya consolidada en la edición virtual de fuentes primarias.

Para la transcripción del manuscrito, se ha adoptado una actitud bastante conservadora. Tan solo se ha normalizado la segmentación de palabras y el uso de las variantes «i», «j», «u» y «v». Los cambios de línea, la ortografía, las abreviaturas, los tachones, las correcciones del autor, los accidentes del soporte o la orientación de la escritura, entre otros aspectos, se han respetado en la edición crítica digital.

  1. Anotación lingüística

El tratamiento lingüístico de los corpus de PS engloba las tareas siguientes: tokenización del texto, estandarización de la grafía, lematización, anotación morfosintáctica y anotación sintáctica. Durante los primeros años del proyecto se utilizaron diferentes herramientas de procesamiento y anotación de textos, pero a partir de 2014 todas estas tareas se ejecutaron de forma centralizada desde la plataforma TEITOK[1], un sistema en línea pensado para consultar, crear y editar corpus que incluyen tanto marcación textual en XML como anotación lingüística.

TEITOK añade, de forma totalmente reversible, anotación lingüística en textos marcados en XML. El resultado es un único archivo (uno por carta, en el caso de PS)  que incluye toda la información textual y extratextual en lenguaje XML, facilitando así la realización de búsquedas cruzadas entre datos de diferente naturaleza.

  1. Resultados

Durante los cinco años del proyecto se han consultado fondos albergados en al menos 57 instituciones (i.e. archivos y bibliotecas): 37 españolas, 13 portuguesas y 7 fuera de la península ibérica. Este trabajo de búsqueda de documentación, que fue continuado pero al que se dedicó especial atención a lo largo de los dos primeros años del proyecto, arrojó un total de 3889 cartas españolas y 3361 cartas portuguesas[2].

Sobre el conjunto total de cartas localizadas se aplicaron algunos criterios de selección. Actualmente, el archivo digital accesible en línea está formado por 2439 cartas españolas y 2338 cartas portuguesas. Todos estos manuscritos están ya transcritos en XML-TEI, lo que nos permite hablar de una colección digital compuesta por casi 5000 cartas en línea. También está finalizado el trabajo de normalización ortográfica y de digitalización de las imágenes, posibilitando así tres vías de acceso al documento: la edición paleográfica, la edición normalizada y la edición facsimilar.

Por lo que se refiere al corpus lingüístico, ambos corpus rondan actualmente el millón de tokens. Para ambas lenguas, la anotación morfosintáctica se ha efectuado sobre la mitad de los datos aproximadamente. Además, se ha incluido anotación sintáctica para una pequeña parte del corpus, más reducida en el caso del español. Los resultados actuales del corpus se ofrecen a continuación en número de tokens:

Español Portugués
Total del corpus: transcrito y normalizado 979494 958723
Total lematizado y anotado (morfosintaxis) 638399 605148
Total anotado (sintaxis) 63388 228105

 

  1. Conclusiones

PS es un recurso de acceso libre en línea[3]. Actualmente, desde la dirección electrónica del proyecto es posible consultar, entre otros, los aspectos siguientes:

  • Digitalización del facsímile
  • Edición crítica digital y edición estandarizada
  • Información extratextual (fecha, lugar de origen y destino, resumen del contenido, contexto situacional, descripción del soporte, medidas, grafismo, estado de conservación, etc.)
  • Lematización y anotación morfosintáctica (parcial)
  • Anotación sintáctica (parcial)
  • Fichas biográficas de autores y destinatarios
  • Mapas con geolocalización de autores

Toda esta información se integra en una interfaz que facilita no solo la consulta de cualquiera de los aspectos mencionados sino también la búsqueda cruzada de los datos. Además, cualquier usuario puede descargar el corpus completo o cartas individuales en formato TXT y XML, tanto en su transcripción original como en versión estandarizada y anotada, para trabajar sobre los datos con herramientas propias.

En suma, PS constituye un recurso electrónico que responda a los intereses de varias disciplinas científicas, entre las que cabe destacar la crítica textual, la lingüística histórica (incluyendo sociolingüística, pragmática y dialectología históricas) o la historia de la cultura escrita.

  1. Financiación

El proyecto de investigación Post Scriptum ha sido financiado por el Consejo Europeo de Investigación: 7FP/ERC Advanced Grant – GA 295562.

[1] <http://teitok.corpuswiki.org/site/index.php>.

[2] La búsqueda de cartas portuguesas se inició con un proyecto anterior, llamada CARDS (Cartas Desconhecidas), en el que se localizaron 2000 cartas.

[3] <http://ps.clul.ul.pt/index.php>.

Edición crítica de un manuscrito médico en inglés medio: el caso de Londres, Biblioteca Británica, Sloane MS 770

Jessica Carmona Cejudo
Universidad de Málaga

Palabras clave: inglés medio, humanidades digitales, Gilbert Kymer, dialectología medieval, lingüística de corpus.
Keywords: Middle English, digital humanities, Gilbert Kymer, Medieval dialectology, corpus Linguistics.

En esta comunicación se pretende hacer un resumen de las técnicas y procedimientos utilizados para la edición de un texto médico inglés del siglo XV (Londres, Biblioteca Británica, Sloane MS 770), que incluye un herbario escrito supuestamente por uno de los médicos más importantes de la época en la isla: Gilbert Kymer, médico de Hunfredo de Gloucester y médico de la corte al servicio de Enrique VI (Gottfried, 1986: 21–22), aunque podría tratarse de una atribución errada (Voigts, 1989: 401). Así pues, se hará un estudio detallado de las etapas de la edición del texto, presentando los problemas surgidos de la misma: la primera corresponde a la transcripción, inclusión de distintos aparatos críticos y notas a pie de página usando software específico, Classical Text Editor, un editor de textos adaptado a las necesidades del editor crítico de manuscritos y otros textos, creando de forma fácil aparatos críticos, referencias a otros manuscritos, inclusión de siglas y trabajo con textos paralelos, ahorrando tiempo y esfuerzo al editor.

La segunda parte corresponderá a la construcción de un corpus etiquetado mediante uso de Excel. En dicho corpus se dará la forma normalizada de la palabra atendiendo a las pautas del electronic Middle English Dictionary, ya que ha de tenerse en cuenta que l’écriture médiévale […] est variance (citado por Boyd et al., 2012: 19), se dará información de la palabra (categoría gramatical, género, número, tiempo verbal y demás), traducción a inglés contemporáneo y códigos obtenidos del electronic Middle English dictionary también. Estos códigos servirán para hacer una búsqueda rápida del término en el diccionario para futuras referencias. El corpus creado servirá para su posterior estudio dialectológico: se reorganizará la información por columnas para ver las variantes de una misma voz, analizar las distintas terminaciones verbales y los pronombres de una forma concisa para determinar la procedencia del escrito, por ejemplo. También se aplicará la técnica LALME (Linguistic Atlas of Late Mediaeval English) en su versión electrónica –y se hará referencia a los inconvenientes que presenta su uso. Si bien gracias a esta técnica se pueden trazar localizaciones posibles para el origen de este texto, este atlas no debe constituir el único medio para decidir el dialecto. A veces los mapas presentan incongruencias o poca precisión en las delimitaciones. Así pues, ha de usarse como herramienta de apoyo a otras técnicas, como estudios filológicos más tradicionales basados en el Handbook of Middle English Grammar por R. Jordan y similares obras.

La tercera parte constituirá el análisis de aspectos paleográficos del manuscrito y problemática a la hora de usar tecnología para datar el códice, la cual es virtualmente inexistente, innovándose sólo en técnicas para escanear manuscritos como el micro-dome. Esta técnica permite la digitalización de manuscritos, aunque todavía está en fase experimental y sólo sirve para tener una imagen totalmente nítida del mismo, incluyendo colores o volúmenes difíciles de capturar, pero no intenta el reconocimiento de los caracteres que compongan los mismos. La cuarta parte constituye el estudio de la procedencia del volumen y el cotejo del mismo con otros manuscritos del mismo autor para establecer la autoría, explicando por qué es imposible el uso de técnicas como «Delta»[1] en este tipo de casos. El herbario que se encuentra en Sloane 770 podría ser cotejado con otros textos de Gilbert Kymer para clarificar su autoría, pero las muestras de textos de este autor no son suficientes: de primeras, otros dos textos se le conocen a Kymer: un tratado que versa acerca del arte de la alquimia, perdido (Getz, 2004: 132) y el Sloane 4 (Londres, Biblioteca Británica). Este último contiene un régimen de salud para Hunfredo, duque de Gloucester (Nicoud, 2007: 503), pero está escrito en latín. La diferencia de idiomas imposibilita la comparación.

La quinta parte consiste en el análisis de las fuentes usadas por (quizá) Kymer para la confección de su texto y sexto, visión holística del manuscrito y su uso probable, en función de su estructura y anotaciones marginales. Se expondrán los resultados más reseñables de la investigación hasta este punto, indicando los distintos problemas que se han presentado durante cada etapa, argumentando la imposibilidad de la aplicación de distintas técnicas computacionales para arrojar luz sobre los aspectos más oscuros de la edición de este texto escrito en inglés medio.

 

Bibliografía

BOYD, P., DROUT, M. D. C., HITOTSUBACHI, N., KHAN, M. J., LEBLANC, M. D., & SMITH, L. (2012), «Lexomic Analysis of Anglo-Saxon Prose: Establishing Controls with the Old English Penitential and the Old English Translation of Orosius», Journal of the Spanish Society for Mediaeval English Language and Literature (SELIM), n.º 19, pp. 7–58.

GOTTFRIED, R. S. (1986), Doctors and Medicine in Medieval England 1340-1530, Princeton, Princeton University Press.

NICOUD, M. (2007), Les régimes de santé au Moyen Âge: naissance et diffusion d’une écriture médiccale, XIIIe-XVe siècle (Vol. I), Roma, École Française de Rome.

VOIGTS, L. E. (1989), «Scientific and medical books», Book Production and Publishing.

[1] Para más información acerca de este procedimiento, véase Burrow, J. (2002). «Delta: a Measure for Stylistic Difference and Guide to Likely Authorship», Literary and Linguistic Computing, 17, pp. 267–287.

Omeka y la edición digital de los cuadernos de Delmira Agustini

María Carolina Blixen
Biblioteca Nacional del Uruguay

Fatiha Idmhand
Universidad de Poitiers

Alejandro Bia
Universidad Miguel Hernández

El valor de los manuscritos de la escritora uruguaya Delmira Agustini fue desde muy temprano reconocido por investigadores y críticos que, con tenacidad, se dispusieron a transcribir un material tan seductor como difícil de descifrar. Fue pionero el trabajo de Ofelia Machado B. de Benvenuto que publicó la transcripción de cinco cuadernos en 1944, y el de Roberto Ibáñez quien, en los años 50, comenzó con un equipo de investigadores otra tarea de transcripción que corrigió errores de Machado y sumó dos cuadernos, las hojas sueltas y lo que Delmira escribía en libros de otros que le pertenecían. La Colección Delmira Agustini consta en el rubro «originales» de 7 cuadernos manuscritos, un centenar de hojas sueltas, libros de Agustini corregidos por la autora y libros de otros usados por la poeta como soporte de creación.

La escritura de Delmira Agustini es muy difícil de leer y transcribir por varias razones: parecía crear en trance, sin considerar en dónde, usando la página (de cuaderno, de libro, hoja suelta, partitura, etc) en cualquier dirección, en momentos superpuestos. Su letra es irregular e intrincada. Usó indistintamente la tinta y el lápiz. La tinta generaba irregularidades en el trazo y el lápiz se ha ido desvaneciendo a lo largo de los años. El grupo de Roberto Ibáñez realizó una tarea enorme que quedó casi terminada, cuya inconclusión es, hasta ahora, un misterio. En julio de 2013 un nuevo equipo dirigido por Carina Blixen inició el proyecto de transcribir los manuscritos para hacer una edición genética digital. El plan fue volver a leer los manuscritos (en los que el trazo a lápiz se ha ido perdiendo) y cotejar lo escrito con las transcripciones dejadas por el equipo de Roberto Ibáñez.

El proyecto se puede consultar en , Archivo digital Delmira Agustini. Es la primera parte de un trabajo que se completará con una segunda.

Los avances en el proceso de realización no fueron lineales: el primer paso fue el de evaluar el conjunto de materiales a transcribir, convocar a un equipo amplio que en un tiempo breve pudiera realizar la tarea al mismo tiempo en que se realizaba el escaneo de todo el material. La transcripción y corrección de los 5 cuadernos presentados en la plataforma insumió aproximadamente 2 años y medio a un ritmo de trabajo de intensidad diversa (incluyendo el tramo final de la corrección), dado que los colaboradores trabajaban en sus ratos libres. Esto hizo que fuera difícil prever la duración del trabajo y volvió imprescindible acortar los tiempos de cierre. Por esta razón y porque se evaluó que lo transcrito en ese tiempo era en sí mismo un material significativo se decidió la división del proyecto en dos partes. Lo que estaba ya hecho, sería la primera: cinco de los siete cuadernos de la poeta.

Los siete cuadernos de manuscritos no están fechados: fueron numerados por Ibáñez con criterio cronológico según la evolución de lo escrito en relación a los libros publicados por Agustini. En los cuatro primeros cuadernos convive la letra de Delmira con las transcripciones de su padre, Santiago Agustini y, esporádicamente, la de su hermano: Antonio Luciano Agustini y algún otro transcriptor más o menos reconocible. El quinto presenta solo la escritura de la poeta y los dos últimos recogen las transcripciones del padre con correcciones de la hija. El cuaderno 6 contiene un momento en la organización del último libro publicado en vida y el cuaderno 7 poemas posteriores a la edición de Los cálices vacíos.

La transcripción se hizo, entonces, a partir de los manuscritos escaneados e incorporó el código de transcripción genética del ITEM (Institut des Textes et Manuscrits Modernes, Francia). Después de este momento, la necesidad fue subir todas las imágenes y sus transcripciones a una plataforma. Para crearla, usamos uno de los programas más utilizados hoy en el campo de las Humanidades Digitales: Omeka. Elaborado en los Estados Unidos por el Roy Rosenzweig Center for History and New Media, permite editar contenidos sin tener que codificar y con una interfaz personalizable. A primera vista, Omeka facilita el trabajo editorial del investigador y de su equipo; en este sentido, es cierto que ha integrado algunas de las aspiraciones de los «humanistas digitales» entre las cuales están la sencillez y la autonomía. Al mismo tiempo, Omeka ofrece muchas de las garantías de los programas libres: robustez, transparencia del código y una comunidad de usuarios activa. Si bien la herramienta cumple con la mayoría de sus promesas técnicas, Omeka no está exento de problemas. En particular, a la hora de explorar lo editado. A partir de la edición digital facsimilar-textual de los manuscritos transcritos de Delmira Agustini realizada en la Biblioteca Nacional del Uruguay, queremos discutir las ventajas y las desventajas de las ediciones digitales realizadas con Omeka, así como evaluar la recepción que ha tenido este proyecto desde que se publicó en noviembre de 2016.

Redes literarias: metodología y visualización para el análisis del entorno socio-cultural de las escritoras españolas en la primera Edad Moderna

María Dolores Martos Pérez
UNED

Paloma Centenera
UNED

 

  1. Redes de sociabilidad literaria

Bieses, acrónimo de Bibliografía de escritoras españolas, es un proyecto de investigación que lleva más de una década dedicado al estudio de las escritoras españolas hasta 1800. Cuenta con una base de datos que contiene más de 12.000 referencias, ediciones y textos digitalizados . Este trabajo forma parte de una nueva fase del proyecto (FFI2015-70548-P), que plantea un marco metodológico que aúna tres perspectivas complementarias. Primero, las teorías del campo literario desarrolladas por Pierre Bourdieu, en su aplicación a la literatura de la primera modernidad. En segundo lugar, la teoría sociológica de redes. Y, finalmente, dado que manejamos, gracias a una base de datos exhaustiva , un amplio caudal de datos, un tercer pilar metodológico se asienta en la teoría del Distant Reading de Franco Moretti, aplicada en nuestra propuesta a una formalización de los resultados de investigación a través de metodologías cuantitativas que permitan el análisis sistemático de un número elevado de datos.

«En la historia de las mujeres es frecuente moverse en un terreno escaso de datos, que solo se consigue vislumbrar recurriendo a informaciones dispersas que se complementan, con las que señalar similitudes y contrastes» (Baranda Leturio, 2005: 219). En este sentido de poner en relación datos dispersos, la metodología de redes, que procede de la sociología, puede ofrecer nuevas perspectivas en el estudio de la escritura femenina, especialmente por su capacidad de vincular información apenas estructurada (por la frecuente falta de datos) en un mapa que permita atisbar e intuir relaciones y motivaciones que de otra manera resultan imperceptibles. El concepto de red social, aplicado a la historia literaria, puede explicar las relaciones de diverso tipo que se articulan en torno a una obra y definir las circunstancias socioliterarias que permitieron su publicación, su contexto de emisión y recepción y el progresivo posicionamiento autorial de las escritoras en el campo literario de la primera edad moderna.

Esta definición de relaciones interesa desde distintos puntos de vista, todos ellos encaminados a analizar la conformación del sujeto autorial femenino y su progresivo posicionamiento en el campo literario, especialmente en su relación con otros agentes culturales y literarios, y que, posteriormente, en un estudio diacrónico, permita establecer una evolución de este modelo autorial femenino. Las obras de escritoras comparten, empezando por la autoría, la desestabilización del horizonte de expectativas cultural. De ahí que dada su condición de mujeres necesitaran verse reforzadas –discursivamente hablando– por instancias intermedias de valoración y autorización, que paralelamente ejercen un control sobre la obra y también son responsables o intervienen activamente en el proceso de impresión y publicación (Martos Pérez, 2015). Por «red» entendemos el conjunto de agentes implicados en el proceso que lleva al producto impreso y a la intervención que tiene cada uno de ellos tiene en este proceso. Partimos de «cómo el comportamiento individual contribuye a configurar la red» (Moretti, 2011: 91) y del funcionamiento de estas redes de validación literaria, a través de las motivaciones de los individuos que las conforman, de los beneficios simbólicos en juego, y de los espacios y tiempos en que se desarrollan, todo ello orientado a poner de relieve tanto los mecanismos por los que las autoras ven impresos sus textos como las dificultades a las que se enfrentaban en este proceso.

Las  variables de análisis (Lozares Colina, 1996) principales que contemplamos son: el número de intervinientes en la red, tipos de relaciones (social, editorial), la naturaleza de esas relaciones (activa, pasiva, mutua), la dirección en que se dan (autora>agentes, autora>receptores, agentes>agentes, agentes>receptores), espacio (local, nacional, transnacional) o el tiempo (continuidad, discontinuidad, sincronía). Estas variables dan lugar a distintos tipos de redes, en una gradación de creciente nivel de complejidad en las relaciones literarias y en el camino que conduce desde la escritura al impreso. El enfoque metodológico de las redes es especialmente rentable en el análisis de las escritoras por las razones que acabamos de exponer y también porque la escritura femenina suele presentarse, en el discurso crítico, sectorizada en la definición de su propia problemática y no siempre contemplada en el todo social y literario del que forma parte. Y es ahí donde se ponen de relieve los condicionantes que pesan sobre el discurso femenino, que contemplaremos a la luz del progresivo afianzamiento que va adquiriendo en el campo literario y en su institucionalización.

  1. Tratamiento de datos, herramientas y visualización

En los últimos años hemos observado un gran cambio en el uso de los datos. De una visión aislada y atómica de los mismos, adecuada para una gestión operativa, hemos pasado a una visión integrada, agregada y relacional, orientada al análisis de tendencias y a la identificación de patrones en los datos.

En la fase precedente del proyecto Bieses, y con el fin de dar soporte al análisis de datos, se desarrollaron un conjunto de herramientas basadas en tecnologías de la web semántica: un entorno de edición para el etiquetado semántico de textos basado en TEI, un entorno de visualización de textos etiquetados y un buscador semántico basado en las etiquetas semánticas que posibilitada la consulta de información tanto agregada como desagregada basada en las etiquetas semánticas.

En la nueva etapa, y con el fin de sacar el máximo rendimiento de los datos generados en el mismo, se está desarrollando un estudio de las redes sociales de las autoras, como exponíamos en la primera parte de esta intervención. El objeto de este estudio es analizar las dinámicas entre autoras y agentes y explicar como la parte social del discurso influye en la visibilidad de una autora y su obra. Se quiere identificar y caracterizar el entorno social de las autoras para ver en qué medida este influye en sus actividades de creación y publicación y en la difusión de sus obras.

En la presenta ponencia se muestra la metodología empleada para la investigación y los resultados del desarrollo de las primeras fases de la misma, desde el punto de vista del análisis literario y también de las herramientas técnicas que permiten su visualización y su modelado informático, en un trabajo conjunto del equipo de investigación literario con el desarrollo técnico del mismo.

Desde este último punto de vista, la metodología para el estudio se basa en la estructura de los procesos de minería de datos y análisis de la información. Este proceso está compuesto por las siguientes etapas:

  1. Comprender el dominio de aplicación y plantear objetivos. La correcta definición de objeticos es siempre la clave del éxito de cualquier análisis de datos. Nos ayuda a centrar el problema y sirve de guía para todo el resto de etapas. Ayuda a evaluar la idoneidad de los resultados obtenidos en el resto de tareas que siempre deberían estar guiadas por los objetivos de conocimientos del proyecto.
  2. Seleccionar y crear el conjunto de datos para el análisis. Ver los datos disponibles, obtener datos adicionales e integrar todos ellos.
  3. Preprocesado y limpieza. Para uniformizar los distintos formatos de datos, eliminar datos erróneos… La calidad de los resultados dependerá en gran medida de la calidad de los datos empleados.
  4. Transformación. Se generan los mejores datos. Se emplean métodos como reducción de dimensión o transformación de atributos. Este proceso de preparación de los datos es fundamental para facilitar los posteriores trabajos de análisis.
  5. Buscar la herramienta de análisis de datos adecuada en función de los objetivos. Se buscará la aplicación o entorno en el mercado que nos permita automatizar la mayor parte del procesamiento. De esta manera evitaremos realizar desarrollo si contamos con un software para la misma función.
  6. Elección del algoritmo de análisis. Se selecciona el método específico para buscar patrones.
  7. Emplear el algoritmo seleccionado. Aplicar el algoritmo seleccionado y obtener resultados.
  8. Evaluación. Se evalúan e interpretan los patrones encontrados, respecto a los objetivos fijados inicialmente. La interpretación de los resultados deberá ser llevada a cabo por un experto en el ámbito de los datos. Solo él podrá dar sentido a los resultados generados.
  9. Usar el conocimiento descubierto.

En esta exposición se comentarán las tareas de definición de objetivos, identificación de las fuentes de datos y selección de la herramienta para el análisis del proceso.

Los objetivos del proyecto son responder a preguntas sobre el entorno social de las escritoras, sus redes familiares y personales, con el fin de valorar en qué medida estos entornos contribuyeron a sus posibilidades de escribir y a su visibilidad autorial. Considerando los muchos datos fragmentarios y aislados de que se dispone para gran parte de las autoras, se impone la búsqueda de un medio de vincularlos entre sí que permita articular una teoría sobre los cauces personales que emplearon en cada momento para obtener difusión pública, cuáles fueron sus apoyos y qué estrategias de visibilidad tuvieron a su alcance.

  1. Las fuentes de datos

Se emplean todo tipo de fuentes impresas y manuscritas donde las autoras presenten rasgos de sociabilidad literaria: rúbricas de poemas, obras colectivas donde se recogen sus textos (cancioneros, justas, academias), paratextos de sus obras impresas, epistolarios, etc.

  1. Elección de la herramienta

La información de la red de contactos de las autoras se modela como un grafo en el que los agentes de la red (autoras, editores, literatos, familiares, amigos influyentes, compañeras…) son los nodos y sus vínculos se representan mediante aristas. Se empleará entonces para el análisis una herramienta de gestión grafos.

Entre los requisitos que debe satisfacer la herramienta se encuentran los siguientes:

  • Posibilidad de representar datos geográficos y temporales.
  • Selección de filtros para obtener vistas parciales de los datos.
  • Tendrá que permitir definir atributos y categorías para los nodos.
  • Opción de representar tanto grafos dirigidos como no dirigidos.
  • Multigrafos, para representar diferentes relaciones entre los agentes.
  • Deberá permitir definir clases de vínculos y fuerza de los mismos.
  • Representación visual en función de los pesos, tanto de nodos como de aristas.
  • Posibilidad de incorporar comportamiento dinámico.
  • Facilidad de uso, corta curva de aprendizaje.
  • Software libre.
  • Posibilidad de representación de información cualitativa.

Para llevar a cabo la selección se han evaluado un conjunto de herramientas de acuerdo con los criterios antes mencionados. Estos criterios se han clasificado como deseables o indispensables para facilitar la decisión.

Una vez elegida la herramienta más adecuada se ha sometido a pruebas con un subconjunto de datos de test generados para tal efecto. De esta manera se ha validado la adecuación de la herramienta para el proyecto, antes de su uso.

Hacia un modelo autosuficiente de edición digital

Susanna Allés Torrent
Universidad de Miami

La edición académica digital constituye uno de los campos de trabajo centrales en el seno de las humanidades digitales. Múltiples iniciativas han desembocado en proyectos editoriales en línea y se han delineado más claramente pautas consensuadas tanto en las metodologías como en las tecnologías utilizadas. Esta «digitalización» de la crítica textual conlleva en muchos casos un replanteamiento de los problemas más básicos de la textualidad y la teoría de texto, pues la edición impresa y la digital difieren tanto en la concepción como en la ejecución. Especialmente en este último caso, la ejecución implica que el filólogo se adentre en una serie de prácticas digitales y que su rol se esté transformando paulatinamente. Prueba de ello es el hecho que en los últimos congresos de humanidades digitales en español ha habido múltiples comunicaciones proponiendo proyectos editoriales digitales. Muchos de estos casos se presentaron como empresas individuales, es decir, donde los editores se enfrentan a las tareas de modelado y codificación. Por otro lado, todos ellos planeaban también utilizar lenguajes estándares, siendo el lenguaje más utilizado el XML basado en las directrices de la Text Encoding Initiative y el uso del lenguaje XSLT para realizar las transformaciones de salida.

En todo este proceso de ejecución de edición digital existen una serie de etapas que el editor debe afrontar: las fases de modelado de datos, los procesos de transcripción, marcado y edición, la publicación final, y la infraestructura digital. Actualmente, muchos de los iniciados en materia de edición digital, como he señalado, han adquirido la competencia necesaria para llevar a cabo el modelado y el marcado de los textos. El problema llega cuando se afronta la publicación, en muchos casos bajo forma de página web, y la creación de una infraestructura digital, es decir, de qué manera se organizarán y se conectarán las diferentes partes de la edición (por ejemplo, el texto fuente y la presentación) y cómo albergaremos nuestro proyecto (con qué dominio, con qué proveedor, o qué servidor). En el caso de grandes proyectos financiados se pueden permitir contratar informáticos, pero esta no es la realidad más extendida y por ello se hace necesaria la búsqueda de alternativas «autosuficientes» que puedan ejecutarse por el mismo editor.

Mientras que hoy en día existen ya unos procedimientos más o menos establecidos para el modelado de datos y la codificación, no sucede así con el diseño y la publicación, es decir, qué aspecto tendrá y cómo publicaremos nuestra edición web. Son algunas ya las iniciativas que pretenden colmar esta laguna, como Version Machine , Boilerplate , TAPAS project , o el recientemente creado en español Entorno Virtual de Investigación del LINHD . Y de la misma manera, tampoco en el terreno de la infraestructura web, destinada a albergar y difundir la edición digital tenemos un único sistema estándar establecido. Algunas ediciones constituyen páginas web dinámicas, otras estáticas; unas utilizan una base de datos, otras no; unas codifican el texto fuente en XML, otras no; y así. Lo cierto es que ninguna solución se adapta cien por cien a las expectativas de los editores digitales que necesitan un resultado que se adapte a sus requisitos de investigación.

En mi intervención, a partir de un caso concreto, describo en líneas generales una posible hoja de ruta a seguir: modelado, codificación, diseño de publicación e infraestructura web. Propongo una serie de requisitos técnicos que en realidad tienen también una serie de implicaciones ideológicas. Esto es, la necesidad de creación de un sistema de publicación y de infraestructura que sea sostenible, libre y gratuito, manejable por el editor filólogo o historiador, independiente y autónomo ante la posible falta de financiación, y que constituya un verdadero entorno digital de trabajo, colaboración y experimentación.

Los textos utilizados se encuadran en un proyecto de edición digital todavía en ciernes, que aspira a la publicación de una serie de traducciones hechas por el humanista Alfonso de Palencia (1423-1492) a partir de textos biográficos escritos en latín por otros humanistas de relieve como Leonardo Bruni, Guarino Veronese y Donato Acciaiuoli.  La descripción que ofreceré no prioriza los resultados actuales, pues se trata de ideas todavía en ebullición, sino el método de trabajo que quizás podría ser adoptado y extensible a otros proyectos por tratarse de tecnologías estándares, gratuitas, independientes de cualquier plataforma propietaria o gestor de contenidos, y de un flujo de trabajo sencillo.

En cuanto al modelo de ejecución de la edición de textos sigue el source – output model consistente en mantener diferenciados en todo momento el texto editado de la presentación final. En este modelo se requiere por lo general que el editor filológico sea el mismo que codifica el texto. Existe, por un lado, una fuente primaria que contiene los datos textuales, codificados en XML-TEI, y, por otro, una transformación independiente que crea un nuevo resultado, en este caso una página web en HTML, sin modificar la fuente primaria. Este sistema permite tener siempre un acceso independiente a los textos en formato XML-TEI y modificarlos siempre que sea necesario. De manera paralela, los paratextos relativos a la explicación del proyecto se encuentran redactados en markdown (en realidad texto plano), por lo que así también diferenciamos lo que conformará la página web, de lo que es la edición de los textos propiamente dicha. Los colaboradores pueden así trabajar en tres niveles diferentes: en la codificación del texto, en la redacción de los contenidos web en texto plano o markdown, y modificar el diseño web.

Por lo que a la infraestructura digital se refiere, diferenciamos los textos editados y el contenido web. Los primeros son el punto de partida de la edición que, a través de un script en XSLT, se multiplican en ficheros en formato markdown según su número de párrafo seleccionando el mismo número tanto del texto latino como del castellano; paralelamente, los contenidos web se redactan directamente en markdown; todos estos ficheros son albergados gratuitamente y en abierto en GitHub y forman parte de una infraestructura web estática creada con Jekyll que es un generador de sitios web estáticos. Este generador es el encargado de recoger y transformar todos los documentos en markdown (tanto el texto editado como el contenido web) y transformarlo en simples páginas HTML según el tipo de plantilla (layout) al que van asociadas. Las plantillas o layouts, creados a partir del framework Foundation, son los modelos de páginas que queremos aplicar, así hay una para las partes generales y otra diferente para la edición del texto. Toda la infraestructura web vive también en el repositorio GitHub, con lo que conseguimos una infraestructura digital en acceso abierto para que pueda ser reutilizada y personalizada por otros proyectos similares.

En fin, como método de publicación web se opta de momento por una publicación gratuita y en abierto, albergada por la misma plataforma GitHub, gracias al sistema de GitHub Pages. En resumen, GitHub sirve como repositorio de todo el trabajo individual y colaborativo, Jekyll como infraestructura web, y GitHub Pages como método de publicación. El resultado de todo esto es un sitio web estático simple que puede ser actualizado constantemente desde los ficheros fuente que contienen el texto editado de Alfonso de Palencia e integrado en el sitio; además se puede de manera paralela seguir experimentando con la presentación y el resultado final a medida que nuevas necesidades van surgiendo.

Este sistema de trabajo se rige por una filosofía digital, en sintonía con algunos de los principios propuestos por las humanidades digitales y por un minimalismo tecnológico. En concreto, se apuesta por: las tecnologías mínimas y de bajo coste, evitando siempre y en la medida de lo posible trabajar con programas propietarios que puedan dejar de fabricarse, caer en desuso rápidamente o simplemente no ser asequibles para todos los investigadores; los estándares web facilitan la interoperabilidad de los datos informáticos con otras iniciativas de investigación; las herramientas y plataformas open source y acceso abierto; las plataformas que permiten un alto grado de escalabilidad, dado que el proyecto se concibe como una iniciativa en curso y en crecimiento; el reúso y la reproducibilidad, siempre que sea posible, con el fin de evitar la pérdida de tiempo en la creación de código, herramientas o entornos ya existentes; y el uso de una plataforma que permita la colaboración y la preservación a largo término.

TEI para el estudio del documento histórico. Una propuesta metodológica

Álvaro Casillas Pérez
Universidad de Alcalá

 Palabras clave: Avisos de Levante, TEI, Historia Digital, Análisis Textual
Keywords: News from the Levant, TEI, Digital History, Textual Analysis

 

El siglo XXI es, sin duda, el «siglo de la información». Las TIC – siglas de tecnologías de la información y la comunicación – están muy presentes en muchos aspectos de nuestras vidas. El uso del correo electrónico, de aplicaciones de mensajería instantánea (como Whatsapp), o de las redes sociales (Facebook o Twitter), son ya fórmulas de comunicación y socialización comunes entre buena parte de la ciudadanía. Además, los seres humanos pueden utilizar estas herramientas como forma de acceder a realidades que son lejanas a nuestro entorno cotidiano. Fenómenos de actualidad como la economía red o la globalización sólo han sido posibles gracias a la inmediatez que aportan las nuevas tecnologías. Por otro lado, la «era de la información» ha abierto un nuevo tiempo para la actividad más oscura de los estados o de las grandes corporaciones financieras, que han encontrado en la informática una forma eficaz de ejercer el espionaje.

Precisamente, muchos historiadores han comenzado recientemente a preguntarse sobre la importancia de la información, del secreto, y del espionaje en el pasado. Algunos de ellos empezaron en la década de los noventa a pensar sobre estas cuestiones en un contexto concreto: el mundo mediterráneo en la época moderna. Los dramas de nuestro tiempo (como la Guerra en Siria, el problema de los refugiados, etc.) han puesto de relieve al Mare Nostrum; y han impuesto a los Mediterranean Studies la misión de estudiar las conexiones y puntos en común entre mundos distintos – en apariencia –, sin duda con el afán de combatir paradigmas como el del «choque de civilizaciones», muy difundido en la opinión pública. La edad moderna es un laboratorio de excepción para comprender la gestación de multitud de problemáticas que son protagonistas de nuestro presente.

Por otro lado, el desarrollo de las nuevas tecnologías ha desafiado por regla general a todos los campos del saber. Las Humanidades Digitales, por ejemplo, surgieron a finales del siglo XX como un campo interdisciplinar cuyo objeto de estudio es complicado de definir. Más en concreto, la Historia ha visto desafiado su quehacer tradicional: muchos historiadores han comenzado a emplear nuevos softwares informáticos que prometen la posibilidad de alcanzar una dimensión distinta en sus análisis. Tampoco sería exagerado decir que, cada vez más, la sociedad demanda «Historia»; y que el historiador, el profesional de la Historia, puede encontrar en las redes sociales y en los medios audiovisuales herramientas con las que hacer llegar sus investigaciones con más facilidad a todos los ciudadanos.

La incorporación de la computadora en los estudios históricos ocurrió a grandes rasgos en la década de los sesenta, en plena efervescencia de los estudios cuantitativos. La influencia del posmodernismo y de la teoría literaria, de la antropología y la psicología llevó a la Historia a utilizar otras metodologías de carácter más cualitativo a finales de los setenta, principios de los ochenta. Los historiadores siguieron empleando el ordenador en estudios cuantitativos al tiempo que comenzaron a experimentar con formas de estudio más cualitativas. Precisamente, el desarrollo técnico que se produjo por aquel entonces hizo que más allá de las bases de datos y los textos pudieran analizarse también imágenes y mapas. La popularización del ordenador personal y el desarrollo de Internet abrieron nuevas formas de trabajar con las fuentes históricas y para difundir los resultados de sus análisis más allá del mundo académico.

Junto a las bases de datos o a la creación de herramientas de visualización – como mapas o grafos – los historiadores se han lanzado a realizar también ediciones web de textos históricos, con el objetivo de ponerlos a disposición de la comunidad académica y del gran público. Para ello ha sido de gran ayuda el esquema desarrollado por el consorcio TEI, uno de los grandes hitos de las Humanidades Computacionales/Humanidades Digitales cuya primera versión estuvo disponible en el verano de 1990. Actualmente se halla en su versión P5 y sigue, como en el momento de su creación, nutriéndose de las aportaciones y sugerencias dadas desde los diversos campos que componen las Humanidades y las Ciencias de la Computación.

Su uso para la presentación de textos en la web o la realización de ediciones críticas ha quedado mostrado en proyectos como la Biblioteca Virtual Miguel de Cervantes <http://www.cervantesvirtual.com/>,  el CELT <http://celt.ucc.ie/> o la Biblioteca Digital del Pensamiento Novohispano <http://www.bdpn.unam.mx/>. En estos y otros proyectos se han sentado importantes precedentes para la investigación sobre, o a partir de, estos textos con herramientas informáticas, con el objetivo de analizar un problema concreto en el pasado. De hecho, algunos autores han apuntado ya el valor de TEI como un proceso de lectura que tiene implicaciones hermenéuticas a la hora de marcar mediante las etiquetas, ofrecidas por el consorcio TEI, el texto elegido. Mi propio proyecto de tesis pretende seguir esta vía al proponer un esquema TEI como base para estudiar una documentación muy concreta: la producida por los servicios de espionaje hispánicos en la época de Solimán el Magnífico. De este modo pretendo también incorporar a los estudios históricos las nuevas metodologías y las nuevas perspectivas que ofrecen las TIC. Ello no significa, claro está, renunciar a los métodos más tradicionales de análisis, sino ofrecer una perspectiva diferente que puede enriquecer a este campo de estudio.

El enfrentamiento entre la Monarquía Hispánica y el Imperio Otomano significó por parte de ambos poderes el empleo de una multitud de confidentes con los que garantizar el conocimiento de toda aquella acción bélica que pudiera afectarles. En el caso hispánico, la documentación producía por los espías y agentes al servicio de su Majestad Católica formaron la base de una «literatura de avisos» o una «literatura de frontera» a través de la cual pudo conocerse estos espacios alejados de las cortes europeas. De este modo, avisos, síntesis de avisos, relaciones de agentes, deposiciones de testigos y un largo etcétera conforman un enorme corpus documental que apenas ha recibido atención por parte de los historiadores. Su contenido va más allá de movimientos militares o cantidades de galeras a utilizar en una u otra campaña, sino que informa sobre aspectos culturales, sociales, geográficos y políticos de sociedades ajenas que pueden pasar desapercibidos en otro tipo de documentación.

Inspirado en el proyecto Avisos de Levante <https://avisosdelevante.wordpress.com/>, mi proyecto de tesis doctoral ha concretado un set de etiquetas que permitirán realizar un estudio sistemático sobre el contenido de esta documentación. La gran cantidad de datos que nos aportan los espías y agentes sobre el mundo otomano hace difícil un etiquetado exhaustivo. Por ello, se han escogido sólo aquellas marcas que permitan definir – mediante sus atributos – a los personajes, lugares y términos culturales que aparecen en esta documentación. De este modo, los textos etiquetados con TEI se convierten en una suerte de base de datos que no renuncia a la propia edición digital. Posteriormente, se aplicarán a los datos etiquetados diversos tipos de softwares, aún sin especificar, que nos permitirán su visualización y su interpretación. Con todo ello, se pretende comprender cuál era el conocimiento que sobre la realidad otomana se tenía en la Monarquía Hispánica, un conocimiento que permitía a tomar decisiones prácticas sobre, por ejemplo, cómo organizar y canalizar sus recursos para plantear un ataque o una defensa eficaz.

Así, la propuesta que se realiza para el congreso HDH 2017 pretende presentar las bases teóricas de la tesis doctoral así como de su metodología, con una parte más práctica donde se mostrará cuál es el proceso de etiquetado a realizar y el porqué de las etiquetas y atributos escogidos. Junto a ello se reflexionará sobre el empleo de las TIC en los estudios de Historia, para así desentrañar cuáles son las potencialidades que ofrece tanto en la investigación como en la difusión. Por último, se tratará de mostrar algún ejemplo de visualización e interpretación que ayude al auditorio a comprender las razones por las que he optado por TEI – y por las diversas herramientas informáticas que se emplearan en su análisis – para la realización de mi tesis doctoral.

Modelos de edición literaria electrónica: ILSAditor un escritorio para la ficción interactiva

Laura Sánchez Gómez
Universidad Complutense de Madrid

Covadonga Díez Sanmartín
Universidad Complutense de Madrid

Nuestra comunicación nace con el objetivo de presentar el proceso de investigación llevado a cabo por el proyecto eLITE CM, sobre ficción interactiva y las posibilidades de la textualidad digital. Este proceso se ha visto materializado en una herramienta digital, ILSAeditor; y en el trabajo que surge del uso de esta herramienta: una obra de ficción interactiva infantil. Así, ILSAditor es un editor que permite la creación, edición y generación de textos de ficción interactiva y ha sido pensado desde un proceso multidisciplinar, en el que han intervenido filólogos e informáticos, con el fin de analizar las posibilidades de escritura y lectura interactiva, nivelada e hipertextual.

Nuestro objetivo es poder repensar los procesos de transformación digital de la lectura y la escritura. Por ello, desde el proyecto eLITE-CM (H2015/HUM-3426) (edición literaria electrónica), un equipo multidisciplinar donde nos planteamos los cambios en los hábitos de lectura y escritura en pantalla y analizamos y repensamos los modelos existentes para poder ofrecer prototipos alternativos y más flexibles a la industria editorial digital, nos interesa analizar estos procesos de transformación que están modificando la creación y la recepción de contenidos literarios y artísticos para todo tipo de públicos, desde el uso concreto de un escritorio de ficción interactiva y la lectura de la ficción resultante. Observamos así, cómo formas tradicionales de escritura van siendo sustituidas por otras textualidades y nuevas formas narrativas, invitándonos a reflexionar sobre el papel del texto en nuestra cultura digital. El texto se encuentra ahora en lugares y situaciones que hasta hace muy poco habrían sido inimaginables para la literatura, que le atribuyen nuevas propiedades y posibilidades de interactividad y multimedialidad, en las que intervienen lo visual y lo textual en la relación «activa» entre el lector y el texto ¿Tienen estas escrituras en pantalla unas características que les hacen diferentes a esa otra manera de escribir y leer a la cual estábamos acostumbrados? ¿En qué puede modificar esto las posibilidades de entender el texto y la lectura?

Más concretamente, la literatura digital infantil se está convirtiendo en un campo en auge siempre abierto a la innovación creativa, desde los textos con ilustraciones, a las interfaces táctiles de lectura, pasando por los libros desplegables, los libros con sonido, con impresión 3D digital o los libros magnéticos. Por todo ello consideramos la literatura infantil digital, uno de los terrenos en los que la literatura digital y el texto aumentado pueden encontrar un público sin prejuicios en el que abrirse camino. Así, nos proponemos trasladar a la literatura infantil estrategias propias de las nuevas creaciones en literatura digital, expresión artística entre la literatura y el net-art, que contiene las semillas del futuro de la industria editorial digital. Principalmente además, porque sus estrategias creativas proponen modelos de escritura y de lectura que ya están siendo reclamados por un ciberlector que busca algo más excitante en el terreno de la edición de libros digitales. Con el fin de investigar la oferta y la experimentación en el campo de la literatura digital infantil en español, hemos analizado y contextualizado los ejemplos más relevantes desde un punto de vista creativo en la colección de Literatura Digital Infantil y Juvenil Ciberia que recoge veinte ejemplos en español y doce ejemplos en otros idiomas. Este proceso de muestreo y análisis de las obras disponibles que experimentan con las posibilidades digitales y están dirigidas a un público infantil/juvenil, nos ha permitido entender de una manera más realista cuál es el estado de la cuestión de la lectura digital y hacia qué queríamos centrar nuestra atención.

Con ello, y después de estudiar las ofertas digitales para el público infantil en el mercado, nos proponemos desarrollar un modelo de edición y visualización que desarrolle también las competencias lingüísticas y discursivas de los pequeños lectores en relación a las posibilidades creativas del propio lenguaje y los niveles de discurso. Como materialización de nuestra investigación, presentaremos una ficción interactiva infantil con la que ejemplificar las posibilidades de escritura y de lectura que ofrece la herramienta ILSAditor.

ILSAditor es una aplicación de escritorio que permite la edición y generación de textos de ficción interactiva mediante la creación de textos por capas de profundización (stretchtext) utilizando, para lograr este fin, un sistema de creación jerárquica de texto, además de las funciones tradicionales del hipertexto. El objetivo de esta aplicación es servir al escritor como mecanismo de creación y de lectura de los propios textos sin tener necesidad de disfrutar de unos conocimientos previos específicos de informática. De esta manera, la edición del documento se realiza viendo directamente el resultado final (i.e. un editor WYSIWYG) y utilizando unos intuitivos iconos para aplicar los efectos de código necesarios. El resultado de la creación y edición del texto interactivo se puede exportar a un formato orientado a web (HTML5+CSS3+JS) o a un formato orientado a dispositivos electrónicos (formato epub). A partir del documento con formato web, se puede utilizar un sistema de visualización que incluya diferentes componentes visuales, como por ejemplo, el efecto de animación conocido como flipping book, y otros como el «zoom» del documento en la pantalla del dispositivo de lectura.

La herramienta funciona como un intuitivo editor de texto que se instala como un fichero ejecutable en el ordenador. Las posibilidades que ofrece el editor son limitadas pero suficientes para que una vez exportado el contenido, funcione como contenido multimedia e interactivo sin necesitar conocimientos previos de programación. El texto se puede importar o escribir en el editor directamente, a la vez que se pueden añadir imágenes, audio, y dos tipos de estrategias que producen un efecto de ficción interactiva: la estructuración de texto expandido por niveles denominado stretchtext, y la elección de itinerarios mediante enlaces, lo que sería una ficción hipertextual tradicional. Estas dos funcionalidades se implementan de una manera muy sencilla pues constan de un botón específico, de manera que basta con seleccionar el texto al que queremos dotar de esta funcionalidad y el nivel al que queremos adscribir dicho texto, y el editor le cambiará el formato para que podamos identificarlo durante el proceso de escritura y concepción. Estos dos recursos interactivos, combinados y añadidos a la multimedialidad, conseguida por la posibilidad de dotar al texto con imágenes y audio, enriquecen las posibilidades de la ficción interactiva desde planteamientos distintos. En el caso del stretchtext, se ofrece la posibilidad de manejarse en distintos niveles de lectura o profundización, permitiendo, por ejemplo, crear un mismo cuento para distintos niveles de comprensión o edades, o jugando con las posibilidades creativas de la ocultación y la desvelación del texto. Por otra parte, el recurso del hipertexto permite crear un efecto de selección de alternativas argumentales, permitiendo al lector elegir y construir su propio recorrido o lectura.

El estudio de las posibilidades de lectura y escritura digital sirve para aunar fuerzas en la construcción de nuevos textos que satisfagan las necesidades de los nativos digitales. Éste es un proceso que obligatoriamente debería integrar el trabajo de investigación con los formatos de edición digital desde el punto de vista tecnológico de creación, diseño y aplicación de software, así como de los profesionales que apliquen estos formatos a la generación de contenidos en el ámbito artístico y literario, y de los pedagogos que evalúen su recepción y su valor educativo y didáctico. Así mismo, es necesario formar a una nueva generación de investigadores, filólogos, pedagogos e informáticos, para que amplíen su conocimiento en el campo de la edición y creación digital, sus posibilidades creativas, pedagógicas e incluso comerciales.

Análisis de catálogos digitales en España: una visión cualitativa a través de las colecciones artísticas online

María Luisa Bellido Gant
Universidad de Granada

Anabel Fernández Moreno
Universidad de Granada

David Ruiz Torres
Universidade Federal do Espírito Santo

Palabras clave: catálogo, base de datos, recurso digital, arte
Keywords: catalogue, database, digital resource, art

Nuestro estudio parte de la necesidad de evidenciar cual es la situación actual de los catálogos artísticos digitales en España, ya que éstos se constituyen como elemento clave para la accesibilidad, difusión e investigación de nuestro ingente patrimonio cultural. Tal vez este último adjetivo haya llevado a que nos encontremos ante una ardua tarea pues, a pesar de que las tecnologías informáticas y digitales se erigen como una poderosa herramienta para llevar a cabo esas labores mencionadas anteriormente, lo cierto es que la realidad deja mucho que desear, no sin olvidar la considerable heterogeneidad de los fondos de tipo artístico que repercuten en la complejidad de los procesos de inventario y catalogación.

Para afrontar un panorama que se elevaba a un total de 2.458 colecciones de bienes muebles en el momento del muestreo, concretamos unos supuestos básicos. A pesar de esta realidad, lo cierto es un visionado pormenorizado de los directorios ofrecidos por varias instituciones del sector cultural[1] constató que los catálogos dedicados específicamente a contenidos artísticos online, suponen una reducción cuantitativa muy significativa de este número inicial.

De esta forma, a partir de un estudio previo que pretendía analizar de forma general esta realidad de los catálogos artísticos digitales en España (Bellido et al., 2016), para este trabajo se planteó la necesidad de establecer un análisis cualitativo que nos permitiera tomar en consideración tanto sus características positivas como aquellos elementos a mejorar.

Previamente se estableció que los catálogos digitales en línea suponen una minoría en contraste al número de colecciones existentes en nuestro país. En relación a su titularidad se observan algunas diferencias que permiten establecer un estudio y criterios con mayor profundidad. Esto ha llevado a que en este trabajo se hayan elegido nueve catálogos, cada uno de los cuales se corresponde con una de las titularidades contempladas.

Éstas estarían conformadas por las colecciones públicas –estatales y autonómicas-   con mayor presencia de catálogos en línea gracias al uso de herramientas como el sistema de gestión DOMUS y al catálogo colectivo CER.ES. Sin embargo, y para establecer una panorámica más realista, ha sido necesario atender también a otras realidades. Se trata de colecciones de diferentes adscripciones administrativas que, aunque representen cuantitativamente la mayoría de conjuntos de bienes existentes, tienen menor presencia en la red. Son aquellas de titularidad local, eclesiástica y universitaria, sin dejar de lado las que pertenecen a fundaciones, cuya titularidad varía dependiendo del órgano gestor. También se han considerado en este análisis aquellos catálogos digitalizados procedentes de las galerías de arte y las casas de subastas, pues dado su interés comercial representan la mayoría de los catálogos digitalizados y accesibles a través de Internet.

Los nueve catálogos seleccionados han sido sometidos a un análisis para el cual se tomaron en consideración varios aspectos. Ante la no existencia de una metodología concreta que pueda aplicarse a la evaluación de los catálogos digitales, estudios como el recientemente publicado Museum Catalogues In The Digital Age (Marrow, 2017) y propuestas de análisis de catálogos como las planteadas por Fernández Luco y Nuñez Rodríguez (2008) han permitido desarrollar un criterio metodológico propio y específico puesto en práctica en este trabajo.

Para el análisis de los catálogos artísticos digitales se han establecido cuatro categorías principales:

  1. Presentación de contenidos y accesibilidad: Diseño y navegabilidad del sitio, PDF descargables, aplicaciones, multiplataforma, actualizaciones periódicas, información disponible en varios idiomas.
  2. Métodos de recuperación de información: buscadores internos y externos, búsqueda avanzada mediante el uso de filtros o enlaces internos y externos para ampliación de fuentes.
  3. Información textual de las piezas: técnica, descriptiva, contextualizada, bibliografía, acceso a documentación interna o externa, vinculación de la pieza con otros ítems.
  4. Información gráfica: calidad técnica de la imagen, posibilidad de uso de un visor de imagen-zoom, existencia o no de marca de agua, etc.

Finalmente y, aunando el análisis previo de cada uno de los catálogos seleccionados, se ha realizado un análisis DAFO con el fin de evaluar los parámetros concernientes a debilidades, amenazas, fortalezas y oportunidades.

Con este trabajo, y como conclusión de este análisis de catálogos artísticos, se destacan los puntos positivos y se evidencian aquellos que son mejorables, así como también se establecen criterios de buenas prácticas en cuanto a la publicación de catálogos artísticos digitales en la red. A este respecto, algunos de los resultados del informe consideraban cuestiones como la existencia de diferentes tipos de documentación -tanto bibliografía científica como informes técnicos-, los discursos adaptados a múltiples audiencias, el uso de recursos multimedia, la interactividad con los usuarios, o la gestión de la propiedad intelectual. En última instancia, se pretende señalar el potencial de los catálogos artísticos digitales como una herramienta de gran utilidad, no sólo para investigadores y conservadores, sino para todo tipo de usuarios. Es un elemento más para superar las asimetrías informacionales que impiden alcanzar sociedades más inclusivas, sostenibles y robustas.

Financiación

Este texto forma parte del proyecto I+D+i Catálogos artísticos: gnoseología, epistemologías y redes de conocimiento. Análisis crítico y computacional, financiado por el Ministerio de Economía y Competitividad dentro del Programa Estatal de Fomento de la Investigación Científica y Técnica de Excelencia.

Bibliografía

  1. VV. (2017), «Museum Catalogues In The Digital Age. A Final Report on the Getty Foundation’s Online Scholarly Catalogue Initiative (OSCI)» Getty Foundation.
    En: <http://www.getty.edu/publications/osci-report/assets/downloads/osci-report.pdf>.

BELLIDO, M.ª Luisa, FERNÁNDEZ, Anabel & RUIZ, David (2016), «Aproximación al catálogo artístico digital en España: concepto, contextos y análisis preliminar», Caracteres. Estudios culturales y críticos de la esfera digital, vol. 5, n.º 2, noviembre, pp. 168-194.
En: <http://revistacaracteres.net/revista/vol5n2noviembre2016/aproximacion-catalogodigital>.

FERNÁNDEZ LUCO, Ada, NUÑEZ RODRÍGUEZ, Gloria Paz (2008), «Automatización de datos», en NAGEL VEGA, Lina (ed.), Manual de registro y documentación de bienes culturales, Santiago de Chile, Getty-DIBAM, pp. 111-115.
En: <http://www.aatespanol.cl/taa/publico/ftp/archivo/MANUAL_WEB.pdf>.

[1] Directorios y catálogos de diferentes titularidades y gestiones publicados en el sitio web del Ministerio de Educación, Cultura y Deporte; el catálogo del Patrimonio Nacional; los directorios proporcionados por la Asociación de Museos de la Iglesia; el Comité internacional para los museos y las colecciones universitarias; la Asociación Española de Fundaciones, y la Guía de Arte Informado.

Picasso y sus exposiciones: análisis dinámico a escala global

Nuria Rodríguez Ortega
Universidad de Málaga

María Ortiz Tello
Universidad de Málaga

Palabras clave: análisis de datos, exposiciones, Picasso, análisis geoespacial
Keywords: data analysis, exhibitions, Picasso, geospatial analysis

El objetivo de la presente comunicación es exponer los resultados obtenidos del procesamiento computacional de un repositorio de datos, construido a partir de un nutrido conjunto de fuentes heterogéneas (Online Picasso Project, Archives of American Art, Getty Research Institute, catálogos de exposiciones, bases de datos museísticas, etc.), que incluye más de 4.000 exposiciones de Picasso (individuales y colectivas) celebradas desde 1900 hasta 2016 en todo el mundo. Esta investigación se inscribe, pues, en los estudios de carácter macroscópico asociados al análisis de grandes conjuntos de datos (data-driven analysis). Esta metodología de análisis, denominada por Franco Moretti (2013) distant reading, y por Lev Manovich (2015), cultural analytics, nos permite analizar los fenómenos culturales de manera exhaustiva y a una escala global, así como detectar aspectos imposibles de alcanzar cuando los fenómenos culturales se estudian de manera particular e individualizada, como son las estructuras y lógicas de funcionamiento que subyacen a su emergencia y desarrollo (Schich, 2012).

El objetivo de nuestro análisis, que toma como base la investigación realizada por Michael C. FitzGerald en Making Modernism: Picasso and the Creation of the Market for Twentieth-Century Art (1996), es indagar en las conexiones existentes entre la obra de Picasso, sus marchantes, sus coleccionistas y sus exposiciones con el fin de averiguar de qué modo los coleccionistas y los marchantes actuaron como piezas clave en la difusión de determinadas obras de Picasso a través de sus exposiciones. El libro de FitzGerald constituye una obra seminal para entender que este complejo nudo de relaciones desempeña un papel ineludible en el devenir de la obra picassiana, su crítica y su valoración; sin embargo, FitzGerald deja la cuestión abierta, sin dar un resultado empírico que demuestre que verdaderamente existió un vínculo directo y sistemático entre ciertas obras con ciertos propietarios, dealers y exposiciones.

Asimismo, este estudio sigue la línea de investigación planteada por Béatrice Joyeux-Prunel en su trabajo «¿Exponer al cubista sin cubismo? De cómo Kahnweiler llegó a convencer a Alemania – e incluso al mundo entero – del aura de Picasso mediante su pedagogía expositiva» (2015)basado en el análisis sistemático de las exposiciones de Picasso acontecidas en las primeras décadas del siglo XX, a través del cual ha podido determinar de qué modo, a partir de 1909, la carrera internacional de Picasso se desarrolló –pese a lo supuesto hasta ahora- fuera de París, centrándose en una red germana que progresivamente extendió su reputación hacia Europa Central, Rusia y Estados Unidos.

Nuestra investigación, que opera sobre un corpus de datos mayor y con unos parámetros crono-espaciales más amplios, da un paso más allá, al ser capaz de desvelar de qué modo se ha desarrollado esta dinámica expositiva durante todo el siglo XX hasta la actualidad.

Para ello, hemos aplicado diversas estrategias de análisis de redes (network analysis) y clustering sobre una cartografía global, que nos está permitiendo responder a determinadas preguntas, como: ¿cuáles han sido los principales centros difusores de la obra de Picasso, y cómo estos han ido modificándose a lo largo del tiempo? ¿Cuál es la dinámica de cambio que define las exposiciones de Picasso desde el punto de vista geopolítico, y cómo ha cambiado su distribución espacial a lo largo del tiempo? ¿En qué medida las diferencias geográficas y geopolíticas se correlacionan con diferencias en los tipos de exposiciones? ¿Cuáles son las redes de comisarios e instituciones que subyacen a las expansiones expositivas que la obra de Picasso ha experimentado en determinados momentos del siglo XX y XXI? Finalmente, ¿de qué modo el sistema de exposiciones picassiano a nivel local (por ejemplo, España) se reformula cuando este se inscribe en una red global, y cómo esta relación local-global se transforma a lo largo del tiempo?

Durante nuestra presentación, mostraremos los grafos y visualizaciones que nos están permitiendo responder a estas preguntas, y expondremos los resultados obtenidos para su discusión y debate.

Financiación

Este texto forma parte del proyecto I+D+i Catálogos artísticos: gnoseología, epistemologías y redes de conocimiento. Análisis crítico y computacional, financiado por el Ministerio de Economía y Competitividad dentro del Programa Estatal de Fomento de la Investigación Científica y Técnica de Excelencia.

Bibliografía

FITZGERALD, M.C. (1996), Making Modernism: Picasso and the creation of the market for twentieth-century,  California, Berkeley, University of California Press.

JOYEUX-PRUNEL, Béatrice (2015), «¿Exponer al cubista sin cubismo? De cómo Kahnweiler llegó a convencer a Alemania – e incluso al mundo entero – del aura de Picasso mediante su pedagogía expositiva», Picasso: Registros alemanes, Málaga, Museo Picasso Málaga, pp. 258-273.

MANOVICH, Lev (2015), «Data Science and Digital Art History», International Journal of Digital Art History, n.º 1, 2015, pp. 12-35. En:  (Fecha de consulta: 01-11-2016).

MORETTI, Franco (2013), Distant Reading, Nueva York, VersoBooks.

SCHICH, Maximilian et al. (2012), Arts, Humanities, and Complex Networks, Cambridge, MIT, Leonardo ebook Series.

Narrativas con acceso a datos en abierto: MPOC, un sistema de información web sobre el Museo del Prado

Ana García Serrano
UNED

Alicia Lara Clares
UNED

Covadonga Rodrigo San Juan
UNED

Palabras clave: datos enlazados, humanidades digitales, museos, narrativas, CIDOC-CRM
Keywords: linked data, digital humanities, museums, narratives, CIDOC-CRM

  1. Introducción

Un aspecto crítico en las aplicaciones de las Humanidades Digitales, es la disponibilidad de corpus y datos en formato digital. De hecho, hay proyectos específicos dedicados a la obtención de información y datos culturales en formato digital para que otras aplicaciones puedan beneficiarse de iniciativas relacionadas con la digitalización, estructuración y visualización de la información en la Web (Castellanos et al., 2015).

Paralelamente, en los últimos años la información en la Web está organizándose alrededor del paradigma de los datos enlazados en abierto (Linked Open Data, LOD), para facilitar su reutilización por parte de aplicaciones informáticas que soportan su acceso por diferentes usuarios y con ello, potenciar su enriquecimiento a nivel de contenidos, multilingüismo etc. En este trabajo mostramos el papel de los datos enlazados en el proyecto MUSACCES . La primera aproximación se muestra con el prototipo MPOC1, que incorpora la ingestión automática de los datos en abierto de cualquier obra del Museo del Prado, con el objetivo de facilitar el desarrollo de narrativas o recorridos virtuales adaptables.

  1. Datos en abierto: caso del Museo del Prado

La primera tarea a abordar con datos abiertos es conocer la estructura de los metadatos con que se describen los datos. Metadato es un término acuñado en la década de los 60 para describir las características de los datos (datos sobre un dato) y permitir su recuperación e interoperabilidad. Para evitar la ambigüedad en la descripción de los datos existen modelos de descripción estándares o definidos al efecto, como es el modelo CIDOC-CRM (Contextual Reference Model) (Doerr et al., 2007), de referencia para el Museo del Prado, junto con el estándar FRBR para modelar los registros bibliográficos del museo.

El modelo del Museo del Prado <https://www.museodelprado.es/pmartwork> está organizado, en su nivel superior, alrededor de objetos de conocimiento como: obra de arte, autor, exposición, evento cronológico, actividad, restauración, recursos multimedia y otros. Además de este modelo el museo tiene información en la Web en forma de microdatos en formato JSON-LD (W3C: 2014). Con los microdatos se indica de forma normalizada a los motores de búsqueda y otras aplicaciones los metadatos que contiene una página Web (temática, atributos, etc.). Así por ejemplo (v. fig. 1) para la obra de las meninas de Velázquez, se puede acceder automáticamente a los metadatos de su página Web, como en el caso del metadato «ecidoc:p102_E35_p3_has_title» y otros.

Image and video hosting by TinyPic
Figura 1 Metadatos en la web y su visualización

Conocida la estructura de los datos en abierto, se puede realizar un proceso automático denominado crawler (Cho et al.,1998) que permite importar los datos a un repositorio o a una aplicación software que los reutilice, como en Paths <http://www.paths-project.eu/> proyecto europeo para facilitar el acceso a los materiales de Europeana o en DIMH <http://dimh.hypotheses.org/> proyecto español para la organización de la información (García Serrano and Castellanos, 2016).

  1. Interpretación de la información

Describir recorridos virtuales o relatar historias en museos es un área de investigación y desarrollo en el que se lleva un tiempo trabajando con el objetivo de acercar las obras de los museos al público. El término Narratología fue acuñado por primera vez por Tzvetan Todorov en 1969 y se refiere tanto al estudio de la narrativa y la estructura de la misma, como a la manera en que ésta afecta a nuestra percepción, aunando conceptos del área de Estructuralismo, que estudia la naturaleza de la historia en su conjunto en lugar de estudiarla como partes de la misma y de la Semiótica o Semiología, que estudia los signos de comunicación entre sociedades humanas y su comportamiento. Así Todorov (Todorov and Weinstein, 1969) distingue entre relato e historia. El relato es el elemento dominante de la obra en prosa; en éste se desenvuelve la historia, y le concierne el orden cronológico: en la historia se entretejen varios hilos que van rotándose el orden de importancia en la narración, cada uno a su tiempo, «corresponde a una exposición pragmática de lo que sucedió».

Relacionado con las narraciones, mención especial es el proyecto DECIPHER que desarrolló la ontología Curate (Mulholland et al., 2012), para describir historias sobre la base de obras de museos y eventos relacionados (causa y efecto). Sobre esta ontología se desarrollaron dos herramientas software Storyspace , para el personal de conservación de obras de dos museos y la segunda, Storyscope , que ya incluye un modelo, su metodología asociada y permite crear y publicar historias sobre patrimonio cultural y colecciones de museos (v. fig. 2).

Image and video hosting by TinyPic
Figura 2 A la izquierda, imagen de Storyspace y a la derecha de Storyscope

Hay un modelo que subyace en estas herramientas de narrativa  (Koenitz, 2017) así como en el proyecto Path (Agirre et al., 2013) (Clough et al., 2015). En nuestro trabajo (modelo MPOC), los conceptos básicos se definen de forma bastante similar, pero el modelo de narrativa es más ambicioso, al basarse en un grafo de relaciones.

En MPOC, los eventos son acciones que ocurren en un tiempo y/o un lugar, siendo una acción un hecho (real o ficticio) ocurrido en la historia. El conjunto de los eventos ordenados cronológicamente conforma una historia. Un subconjunto de eventos, sin ordenación cronológica, crea una trama. La forma de presentación (textual, en lengua de signos, audio, etc.) es el mecanismo utilizado para enlazar los elementos de la trama de manera que se adapten a todos los públicos, con necesidades especiales (ciegos, sordos o presos) o no. Una vez seleccionada una trama y una forma, se puede construir una narrativa. Por lo tanto, la narrativa es el proceso de dotar de sentido a los elementos, en principio independientes, de la trama a través de la forma seleccionada.

Para crear una narrativa que sea interesante y provoque expectación en los visitantes, es necesario disponer tanto de los datos estructurados en abierto relacionados, como aportar nueva información, con ayuda de los expertos historiadores y educadores, para construir finalmente un relato en que, por ejemplo, se describa quiénes son los personajes y cómo participan en las historias que componen la narración, a partir de la respuesta a preguntas como ¿Qué personajes aparecen? ¿Para qué se hace el cuadro? ¿Qué inspira el cuadro? ¿Qué aspectos del contexto histórico tratan? Las respuestas y combinaciones son muy diversas, como ocurre para explicar la situación de los bufones (enanos) considerados gente de placer en el tiempo de la obra de las meninas de Velázquez. Entonces, ¿cómo descubrir estas respuestas y articularlas automáticamente?

La primera aproximación se ha implantado en MPOC1, sistema de información Web que actualmente permite añadir dentro de la narrativa en construcción objetos predefinidos, como son los personajes (tanto reales como ficticios), los eventos de la trama, las obras del museo (y sus metadatos asociados) y referencias externas (como Youtube, prensa, etc.). Las relaciones generadas a través de los metadatos o de manera indirecta, permitirán la generación de grafos semánticos como el de la figura 3, con los que se construirán las narrativas.

Image and video hosting by TinyPic
Figura 3 Ejemplo de un grafo semántico una narrativa MPOC

Actualmente MPOC1 es accesible vía web, (solicitando login a las autoras) y permite buscar y visualizar las obras y sus metadatos asociados así modificarlos.

Agradecimientos

Musacces (S2015/HUM3494) y VEMODALEN (TIN2015-71785-R).

Bibliografía

AGUIRRE, Eneko, BARRENA, Ander, FERNÁNDEZ, Kike, MIRANDA, Esther, OTEGUI, Arantxa, & SOROA, Aitor (2013), «PATHSenrich: A Web Service Prototype for Automatic Cultural Heritage Item Enrichment. In Research and Advanced Technology for Digital Libraries», TPDL, Malta, September 22-26, Proceedings, pp. 462–465.

CASTELLANOS, Ángel, GARCÍA SERRANO, Ana, & CIGARRÁN, Juan (2015), Concept-based Organization for semi-automatic Knowledge Inference in Digital Humanities: Modelling and Visualization, Proc. Knowledge Organization Systems and Digital Humanities-ISKO-France.

CHO, Junghoo, GARCÍA-MOLINA, Hector, & PAGE, Lawrence (1998), «Efficient crawling through URL ordering» Computer Networks and ISDN Systems 30, Elsevier, pp. 161–172.

CLOUGH, P., HALL, M., GOODALE, P., &  STEVENSON, R.M. (2015), «Supporting Exploration and Use of Digital Cultural Heritage Materials: the PATHS Perspective», Cultural Heritage Information: Access and management, pp. 197–220.

W3C, World Wide Web Consortium and others. 2014. JSON-LD 1.0: a JSON-based serialization for linked data.

DOERR, Martin,  ORE, Christian-Emil, & STEAD, Stephen (2007), «The CIDOC Conceptual Reference Model: A New Standard for Knowledge Sharing»  Tutorials, Posters, Panels and Industrial Contributions at the 26th Int-Conf on Conceptual Modeling – 83, pp. 51–56.

GARCÍA SERRANO, Ana, & CASTELLANOS, Á. (2016), «Conceptualización, acceso y visibilidad de la información en el proyecto DIMH», Fundación Juanelo Turriano, pp. 397–400.

KOENITZ, Hartmut. (2017), Interactive storytelling : 6th International Conference, ICIDS 2013, Istanbul, Turkey, November 6-9.

MULHOLLAND, Paul, WOLFF, Annika, & COLLINS, Trevor (2012), «Curate and storyspace: An ontology and web-based environment for describing curatorial narratives», LNCS 7295, pp. 748–762.

TODOROV, Tzvetan, & WEINSTEIN, Arnold (1969), «Structural analysis of narrative», NOVEL: A forum on fiction, n.º 3, pp.70–76.

Visualización de datos temporales en Humanidades Digitales: categorización, modelado y representación

Aina Borràs Bou
Universidad de Barcelona

Mario Pérez-Montoro Gutiérrez
Universidad de Barcelona

Palabras clave: Visualización de datos, Datos temporales, Humanidades Digitales, Modelado de datos
Keywords: Data visualization, Time-Oriented Data, Digital Humanities, Data Modelling

  1. Introducción

En la era de la información, la mayoría de los datos que intentemos capturar y explotar están, en cierta forma, relacionados con los conceptos de espacio y tiempo. El tiempo difiere significativamente del espacio en la forma en qué lo percibimos. Debido a su carácter unidireccional y en constante evolución, no podemos navegar por sus diferentes dimensiones igual que hacemos con el espacio, es imposible trasladarnos al pasado o al futuro (Aigner, 2011).

El hecho de que no podamos percibirlo a través de nuestros sentidos, nos plantear el reto de hacer visible lo invisible si lo queremos representar gráficamente (Thomas, 2006). El tiempo tiene además una estructura semántica inherente que aumenta su complejidad. Su jerarquía estructural definida por las diferentes granularidades que lo componen (unidades temporales), dando lugar a diferentes calendarios según las necesidades culturales y los fenómenos naturales o sociales que representan, no se parece a ninguna otra dimensión cuantitativa. Todas estas peculiaridades del tiempo hacen que la visualización de datos temporales sea especialmente complicada (Silva, 2000).

El sistema perceptivo visual humano está preparado para detectar patrones o elementos diferentes en un entorno uniforme. La visualización de datos pretende aprovechar esta capacidad para ayudar a entender datos con un grado de abstracción que nos impide interpretarlos de otra forma (McCormick, 1987). El tiempo puede ser simplemente la dimensión que nos permite ordenar los datos. Sin embargo, la visualización de datos orientados en el tiempo va más allá de ordenar los datos a lo largo de un eje temporal. Precisa también tareas previas como el modelado y de análisis detallado de las características de los datos a representar para poder decidir qué técnica de visualización es la más adecuada en cada contexto para facilitar la comprensión de nuestro mensaje.

La obtención de información y la comprensión de los datos temporales a través de representaciones visuales es un desafío de gran importancia en las humanidades digitales porque se necesitan nuevas formas que representen esta realidad poco uniforme (Drucker, 2004). La forma más utilizada en estos enfoques para representar datos temporales es la línea de tiempo y, aunque es un tipo de gráfica muy extendido y fácilmente interpretado por el público general, no nos permite representar las peculiaridades del mismo tal y como se concibe en las humanidades (Rosenberg, 2013; Yau, 2010).

En este trabajo pretendemos desarrollar una visión sistemática de la diversidad de métodos para la visualización de datos orientados en el tiempo a lo largo de la historia y de las culturas en el marco de la Humanidades Digitales (Kirschenbaum, 2012). A partir de esta categorización trataremos de detectar ventajas, limitaciones, patrones y puntos comunes que nos lleven a un sistema consensuado de visualización que, además, sea suficientemente flexible como para adoptar la visión subjetiva que requieren este tipo de investigaciones.

  1. Objetivos

La selección de una alternativa de diseño para la visualización de una serie de datos temporales en las humanidades digitales suele ser un verdadero reto.

En cualquier proyecto de visualización de datos temporales, es necesario un análisis previo para identificar la naturaleza de los datos y para elegir la técnica de visualización más adecuada al contexto del proyecto (Shneiderman, 1996). Nuestra propuesta consiste en diseñar una clasificación de alternativas de diseño para modelos temporales diferentes con el fin de facilitar a los humanistas digitales la representación de estos datos según las características de sus datasets (datos y tiempo), su intención comunicativa y las necesidades de su público objetivo. Esta finalidad puede descomponerse en los siguientes objetivos.

2.1 Objetivo 1: Modelos de datos temporales en humanidades digitales

El primer objetivo es la definición de una tipología de modelos de datos temporales que se ajuste a la realidad de las Humanidades Digitales. O dicho en otros términos, definir y desglosar las características de la dimensión temporal para poder identificar las diferentes clases de datos temporales.

2.2 Objetivo 2: Técnicas de visualización de datos temporales usadas en humanidades digitales

El segundo objetivo de nuestra investigación es recoger y analizar el principal conjunto de técnicas de visualización de datos temporales utilizadas y clasificarlas según su intención comunicativa.

2.3 Objetivo 3: Técnicas de visualización recomendadas para cada tipo de datos temporales más comunes en las humanidades digitales

Una vez creadas las clasificaciones de datos temporales y de visualizaciones utilizadas para representarlos, nuestro último objetivo es definir en cada caso cuáles son las técnicas de visualización más adecuadas (mapeo natural) que se corresponden con cada uno de los tipos de datos temporales (definidas por una combinación concreta de características del tiempo, datos e interacción dato-tiempo).

El producto resultante de este mapeo es una matriz que recoge la naturaleza de la dimensión temporal, las características de los datos y las propiedades de las representaciones visuales que pueda facilitar la elección de la técnica de visualización más adecuada para cada proyecto.

  1. Metodología utilizada

A continuación, se detallan las metodologías implementadas para cubrir cada uno de los objetivos detallados en el apartado anterior.

3.1 Objetivo 1: Modelos de datos temporales en humanidades digitales

En la primera fase de este proyecto se realiza una búsqueda bibliográfica exhaustiva que nos permitirá definir de forma más precisa el concepto del tiempo. Se recogen los diferentes modelos de datos temporales existentes con el fin de adaptarlos y crear una tipología de modelos adecuada al contexto de las humanidades digitales.

3.2 Objetivo 2: Técnicas de visualización de datos temporales usadas en humanidades digitales

En la segunda fase, se hace una recopilación sistemática de técnicas de visualización de datos temporales mencionadas en la literatura científica. Se realiza un benchmarking de las representaciones visuales existentes para detectar posibles nuevas tendencias y poder elaborar una propuesta de clasificación de esas técnicas que nos permita continuar con el estudio.

3.3 Objetivo 3: Técnicas de visualización recomendadas para cada tipo de datos temporales más comunes en las humanidades digitales

Elaboración de la matriz que combina las diferentes dimensiones del tiempo, los tipos de datos y las técnicas de visualización. Testeando cada una de las combinaciones posibles de nuestra tipología de modelos de datos temporales con la clasificación de representaciones visuales verificamos si una determinada visualización es adecuada o no.

  1. Conclusiones

Muchos investigadores afirman que las Humanidades Digitales son fruto de una doble abstracción y que sus hallazgos no son un reflejo real de aquello que estudian (Drucker, 2011). Esta disciplina analiza y representa datos no obtenidos directamente de la medición de fenómenos de la naturaleza, sino creados por personas y, por tanto, en muchas situaciones, subjetivos y fruto del contexto histórico y el contexto que han vivido estas personas.

Los datos temporales están presentes en muchas disciplinas y, por tanto, existen muchas de técnicas de visualización de este tipo de información (Frank, 1998). Sin embargo, no todas ellas son aplicables a las Humanidades. La especificidad del área justifica la creación de una propuesta centrada sólo en las técnicas de visualización relevantes en ese ámbito de estudio.

El número creciente de técnicas de representación de datos temporales dificulta la selección de una visualización concreta durante el desarrollo de cualquier proyecto de visualización en Humanidades Digitales. Sobre todo, si tenemos en cuentas que estas técnicas se encuentran dispersas en diferentes publicaciones y fuentes de información y la falta de tradición científica en su uso. Esta propuesta pretende permitir a estudiantes, investigadores y profesionales del sector seleccionar de forma relativamente sencilla las gráficas o visualizaciones más adecuadas a las necesidades específicas de cada proyecto.

Bibliografía

AIGNER, W. et.al. (2011), Visualization of Time-Oriented Data, Londres, Springer.

DRUCKER, J. (2011), «Humanities approaches to graphical display», Digital Humanities Quarterly, 5(1), Boston, pp. 1-21. En: (Fecha de consulta: 22-05-2017).

DRUCKER, J. y NOWVISKIE, B. (2004), «Speculative Computing: Aesthetic Provocations in Humanities Computing», en SCHREIBMAN, S., SIEMENS, R. G., UNSWORTH, J. (eds.), A Companion to Digital Humanities, Malden, Blackwell Publishing.

FRANK, A.U. (1998), «Different types of “times” in GIS», en EGENHOFER, M. & GOLLEDGE, R. (eds.), Spatial and temporal reasoning in geographic information systems, Oxford, Oxford University Press, pp. 40-62.

KIRSCHENBAUM, M.G. (2012), «What Is Digital humanities and What’s It Doing in English Departments?», Debates in the Digital Humanities, Minneapolis, University of Minnesota Press. En: (Fecha de consulta: 22-05-2017).

MCCORMICK, B.H., DEFANTI, T.A. & BROWN, M.D. (1987), «Visualization in scientific computing», IEEE Computer Graphics and Applications, IEE, Los Alamitos, 7(10), pp. 69-69. En: (Fecha de consulta: 22-05-2017).

ROSENBERG, D. & GRAFTON, A. (2013), Cartographies of time: A history of the timeline, Nueva York, Princeton Architectural Press.

SHNEIDERMAN, B. (1996), «The eyes have it: A task by data type taxonomy for information visualizations», IEEE Symposium on Visual Languages, IEE, Los Alamitos, pp. 336-343. En: <http://ieeexplore.ieee.org/document/545307/> (Fecha de consulta: 22-05-2017).

SILVA, S.F. & CATARCI, T. (2000), «Visualization of linear time-oriented data: a survey», Web Information Systems Engineering. Proceedings of the First International Conference on, IEEE, Los Alamitos, Vol.1, pp. 310-319. En: (Fecha de consulta: 22-05-2017).

THOMAS, J.J. & COOK, K.A. (2006), «A Visual Analytics Agenda», IEEE Computer Graphics and Applications, IEEE, Los Alamitos, vol. 26, n.º 1, pp. 10-13. En: (Fecha de consulta: 22-05-2017).

YAU, N. (2010), «11 Ways to Visualize changes over time. A Guide». En: (Fecha de consulta: 22-05-2017).

A Web-oriented Reactive Visualization Architecture for Data-driven Research in Digital Humanities

Alejandro Benito Santos
Universidad de Salamanca

Antonio Gabriel Losada Gómez
Universidad de Salamanca

Roberto Therón Sánchez
Universidad de Salamanca

Amelie Dorn
Austrian Academy of Sciences

Evelin Wandl-Vogt
Austrian Academy of Sciences

Palabras clave: humanidades digitales, visualización de datos, analítica visual, lexicografía, dialectología
Keywords: digital humanities, data visualization, visual analytics, lexicography, dialectology

Among the different computational methods employed in Digital Humanities (DH), data visualization (DataVis) has experienced a great usage increase in recent years, especially in the publication and result-validation stages of humanistic research processes led by experts.

In our approach, we stress the importance of DataVis in DH projects not only in the last stages of the research but also from the very beginning of its conception. We also understand collaboration between different teams of experts as the keystone of DH and so DataVis serves this purpose as a means to offer plastic, accessible ways for researchers with different backgrounds to actively get involved and collaborate in the discussions that arise in the onset and course of any research effort in the area.

We propose a ready-to-use software architecture and a software methodology tailored to DH investigations that by keeping DataVis at their cores, enable a faster comprehension of the data by all expert teams involved and a rapid development of visualization prototypes suitable for the research questions proposed at any point in the research process. Our proposal also takes into account the increasing volume of target data sets in DH projects, and promotes the creation of visualization systems capable of offering responsive, low-latency views that adapt to data changes triggered by the user in minimal time spans. According to this line, we identify several weaknesses in the scalability of past DH visualization systems which our proposal tries to address.

Due to these deficiencies, such systems leave researchers in one of two typical situations that substantially increase the work load required by their research tasks: 1. Researchers are forced to work with visualization systems that can only manage a portion of the target data set, offering a partial vision of the problem, and consequently increasing the cognitive load required to generate an accurate mental map of the situation or 2.Researchers are forced to work with visualization systems that due to performance issues are unable to offer a quick interface response, delaying the fixation of their mental state on the system and therefore, leaving them with the same undesirable increase in cognitive load.

Consequently, this paper addresses the scalability problems found in many visualization systems proposed in DH, which are unable to manage massive data sets. Our system supports advanced searching and filtering of textual characteristics extracted in the data analysis stages of the scientific cycle.

Despite placing DataVis at the center of our proposal, we could not ignore other computational disciplines usually employed in DH, of which of special importance are those related to Natural Language (NLP) and Text Processing. During the cycle of creation of visualization systems for DH, the feature identification and extraction stages are crucial to obtain meaningful visualizations able to help experts in their research work. These features, normally extracted from digitized texts, conform the dimensions over which the data will be subsequently projected, filtered and searched. Before the final choice of dimensions is taken, experts must first get acquainted with the nature of the data set in order to be able to pick the most adequate ones. The presented methodology proposes the use of visualization-based micro prototypes to ease such process, as it tends to be long and toilsome due to the differing nature of the data between DH projects. This makes code and knowledge reuse difficult -sometimes impossible- and thus the fast conception of small prototypes is key to shorten the times spent on the task. Microprototyping also promotes useful exchange of ideas between different stakeholders and produces quality feedback that can be rapidly incorporated in the visualization system under construction.

Apart from setting a framework to create visualizations by incorporating fast development methodologies and other mechanisms, this paper also describes the adoption of publishing mechanisms for the web based on continuous integration techniques. This leverages the effort needed to share the visualization system with other stakeholders in the last stages of the development cycle, and it also contributes toward achieving two main objectives of great importance in any scientific research: 1. Facilitating the peer-review and validation tasks of the work by third parties and thus ensuring the correctness of the conclusions obtained and 2. Augmenting and increasing the impact of the published results by enabling the citizenship to access the results of the investigation, a fact that can foster subsequent citizen science efforts and help create a more informed, critical society in general, as this is one of DH ultimate goals.

Finally, a practical application demonstrating the proposed architecture and methodology is presented, which employs data from historical dictionaries to create a reactive geo-spatial and temporal analysis visualization system.

GIS application for an interdisciplinary project in History, Maritime Archaeology and Wood Provenance (ForSEAdiscovery)

Ana Crespo Solana
Instituto de Historia, CCHS-CSIC

María José García-Rodríguez
Instituto de Historia, CCHS-CSIC

 Ignacio García González
Universidad de Santiago de Compostela (USC)

Nigel Nayling
University of Wales Trinity Saint David (UWTSD)

José Luis Gasch-Tomás
Instituto de Historia, CCHS-CSIC

Peter Groenendijk 
Universidad de Santiago de Compostela (USC)

Sara Rich
Maritime Archaeology Ltd (MALtd)

Marta Domínguez Delmás
Universidad de Santiago de Compostela (USC)

Miguel San Claudio
Archeonauta S.L

Garry Momber
Maritime Archaeology Ltd (MALtd)

Palabras clave: SIG, Historia Moderna, Arqueología Marítima, Dendrocronología, Naufragios
Keywords: GIS, Modern History, Maritime Archaeology, Dendrochronology, Shipwrecks

 

  1. Introduction

ForSEAdiscovery[1] is an interdisciplinary project encompassing History, Maritime Archaeology and Dendrochronology with a dual objective: to collect information on naval construction and the use of timber in shipbuilding; and to complement this research with the analysis of the archaeological evidence collected from Iberian shipwrecks, timber and other artefacts. The project involves a Consortium of eight European countries (Spain, Portugal, United Kingdom, France, The Netherlands, Denmark, Poland and Sweden), and the United States, and is coordinated by Dr. Ana Crespo Solana at the Consejo Superior de Investigaciones Científicas (CSIC, Spain).

  1. Objective

The aims of the project consist on the consolidation a research line combining historical research and Geographic Information System (GIS), underwater archaeology and wood-provenancing methods (dendrochronology, wood anatomy and geo/dendrochemistry) (Crespo Solana, 2014, Crespo Solana, 2016).

  1. ForSEAdiscovery Results

In the first work package Historical wood supply and dynamic trade networks, we have collected and analyzed literature about shipbuilding, raw materials, timber trade, and merchant networks during the First Global Age (16th-18th centuries) in different Historical Archives and on the PARES Website[2], with the objective of finding trade routes and shipwrecks, and the relationships between deforestation processes and the use of resources for shipbuilding in Iberian Empires[3]. In the second work package Nautical Archaeology and Shipbuilding[4], we have carried out nautical archeology interventions in the North West of Spain, Portugal and the United Kingdom. During these archaeological campaigns, samples from shipwreck timbers have been extracted to proceed with different wood analyses, and to obtain 3D representations of the wrecks. Furthermore, historical and archaeological data have been crossed to find a common link in the historical events. In the third work package Wood provenance[5], we have constructed multi-century long oak (Quercus spp.) and pine (Pinus spp.) tree-ring chronologies from living trees and historical buildings for the North, Center and South of Spain, and have developed reference datasets for strontium stable isotopes at the same locations. Furthermore, the organic chemistry and DNA of the wood collected has been analysed and characterized, in order to complete the set of reference material to provenance the wood retrieved from the shipwrecks. The analyses developed in this field are the results of individual projects and doctoral theses of fellows[6].

In order to merge and analyse all these data, the ForSEAdiscovery project has developed an extensive database and a GIS (García-Rodríguez, 2015), which focuses on relevant issues about history, nautical archaeology, shipbuilding techniques and the timber trade in the Iberian Peninsula during Early Modern Age. GIS will allow analysing the origin of the wood that was used in the construction of the different parts of the ship and thus, it will establish its spectrum or lifeline from the historical, archaeological and geographical point of view.

This conceptual GIS model and the subsequent GIS application focused on History, Maritime Archaeology and Wood Provenance will integrate different databases, allow multiple queries, as well as visualise and/or analyse spatio-temporal data. ForSEAdiscovery GIS will also be made available in open access via the Internet and, in order to maximise its analysis potential, it will be developed in such way that will allow linkage with other databases. Besides being a shared database, this platform can revolutionise historical analysis with the potential to be supplemented with additional parameters in the future. More information about the project can be found in the website: <http://www.forseadiscovery.eu>, where there is people, news, research, scientific activities, publications, reports, gallery, and finally there will be a link to the ForSEAdiscovery GIS application.

Funding

This project has received funding from the European Union’s Seventh Framework programme for research, technological development and demonstration under grant agreement no. PITN-2013GA607545.

 

Bibliography

CASTRO, F. (2008), «A Group for the Study of Iberian Seafaring», en CASTRO, F. and CUSTER, K., (eds.), Edge of Empire, Proceedings of the Symposium held at the 2006 Society for Historical Archaeology Annual Meeting, Sacramento, California, Lisbon: Caleidoscópio.

CRESPO SOLANA, Ana (2016), «ForSEAdiscovery: Génesis y marco histórico-metodológico de un proyecto interdisciplinar en Humanidades», en VALERA GOMES, Rosa, VALERA GOMES, E. Mário (eds.), A Gestão Dos Recursos Florestais Portugueses Na Construção Naval Da Idade Moderna: História E Arqueologia, Lisboa, pp. 1-14.

CRESPO-SOLANA, Ana, NAYLING, Nigel (2014), «ForSEAdiscovery. Forest resources for Iberian Empires: Ecology and Globalization in the Age of Discovery (16th-18th centuries)», Actas del V Congreso Internacional de Arqueología Subacuática (IKUWA V), 15-18 de octubre de 2014, Cartagena.

DALY, Aoife (2007), Timber, Trade and Tree-rings. A Dendrochronological Analysis of Structural Timber in Northern Europe, c. AD 1000 to c. AD 1650, PhD thesis, Univ. of Southern Denmark.

DOMÍNGUEZ-DELMÁS, M., ALEJANO-MONGE, R., VAN DAALEN, S., RODRÍGUEZ-TROBAJO, E., GARCÍA-GONZALEZ I., SUSPERREGI, J., WAZNY T. & JANSMA, E. (2015), «Tree-rings, forest history and cultural heritage: current state and future prospects of dendroarchaeology in the Iberian Peninsula», Journal of Archaeological Science, 57, pp. 180-196.

DOMÍNGUEZ-DELMÁS, Marta (2015), Forest history, timber supply and tree rings, PhD Thesis, Universidad de Huelva, Departamento de Historia I.  En: <http://rabida.uhu.es/dspace/handle/10272/12241>.

En:<http://www.dendro.dk/dendrodk_files/timber%20trade%20and%20treerings.pdf>.

GARCÍA-RODRÍGUEZ, María José, GASCH-TOMÁS, José Luis, & CRESPO SOLANA, Ana (2015), «Development of a GIS for Iberian ships in the Age of Discovery in ForSeaDiscovery Project», Poster Presented in ISBSA 2015, Proceedings International Symposium of Boats and Ship Archaeology. Baltic and Beyond. Change and continuity in shipbuilding, National Maritime Museum, Gdansk, September 2016.

GASCH-TOMÁS, José Luis, TRÁPAGA MONCHET, Koldo, TRINDADE, Ana Rita (2017), «Shipbuilding in times of war: Contracts for the construction of ships and provision of supplies in the Spanish Empire in the early seventeenth century», The International Journal of Maritime History 2017, vol. 29(1), pp. 187–192.

NAYLING, Nigel & SUSPERREGI, Josué (2013), «Iberian Dendrochronology and the Newport Medieval Ship», International Journal of Nautical Archaeology.

SASS-KLAASSEN, Ute, VERNIMMEN, Tamara, BAITTINGER, Claudia (2008), «Dendrochronological dating and provenancing of timber used as foundation piles under historic buildings in The Netherlands», Int. Biodeterioration & Biodegradation 61, pp. 96–105.

TRAORÉ, Mohamed, KAAL, Joeri, MARTÍNEZ CORTIZAS, Antonio (2016), «Application of FTIR spectroscopy to the characterization of archeological wood», Spectrochimica Acta Part A: Molecular and Biomolecular Spectroscopy, 153 (2016), pp. 63–70.

TROUETA, Valerie, HARLEY, Grant L., DOMÍNGUEZ-DELMÁS, Marta (2016), «Shipwreck rates reveal Caribbean tropical cyclone response to Q:4; 5 past radiative forcing»,  Earth, Atmospheric and Planetary Sciences, March 22, 2016, vol. 113, n.º 12, pp. 3169–3174.

WAZNY, Tomasz (2005), «The origin, assortments and transport of Baltic timber: historic dendrochronological evidence», en VAN DE VELDE, C., BEECKMAN, H., VAN ACKER, J., VERHAEGHE, F. (eds.), Constructing Wooden Images: Proceedings of the Symposium on the Organization of Labour and Working Practices of Late Gothic Carved Altarpieces in the Low Countries, Brussels 25–26 October 2002, Burssels,  VUB Press, pp. 115–126.

[1] Forest Resources for Iberian Empires: Ecology and Globalization in the Age of Discovery (ForSEAdiscovery)”. Marie Curie Programme, European Union, PITN-2013GA607545). <http://www.forseadiscovery.eu/>.

[2] PARES Portal de Archivos Españoles, Ministerio de Educación, Cultura y Deporte <http://www.pares.mcu.es/>. Historical Archives: Archivo General de Indias (AGI), Archivo Histórico Nacional, Archivo del Museo de la Marina, Biblioteca Nacional en Madrid, y Archivo General de Simancas en Valladolid.

[3] CRESPO SOLANA, A. (2016), “ForSEAdiscovery: Génesis y marco histórico-metodológico de un proyecto interdisciplinar en Humanidades”, en: VARELA GOMES, R. y M. eds., A Gestâo dos recursos florestais Portugueses na construçao naval da Idade Moderna: História e Arqueología, Lisboa, IAP, pp. 1-15; GASCH-TOMÁS et al. (2016), “Shipbuilding in times of war: Contracts for the construction of ships and provision of supplies in the Spanish Empire in the early seventeenth century”.

[4] CASTRO, F. (2008), “A Group for the Study of Iberian Seafaring” in Castro, F. and Custer, K., eds., Edge of Empire.

[5] DALY, A (2007), NAYLING, N. and SUSPERREGI, J. (2013), WAZNY, T. (2005) and SASS-KLAASSEN, U. (2008).

[6] DOMÍNGUEZ-DELMÁS, M. (2015), DOMÍNGUEZ-DELMÁS, M. et al. (2015), TROUETA et al. (2016) and TRAORÉ M. et al (2016).

Estilística computacional y estilometría aplicadas a la poesía en español: el caso de Fernando de Herrera

Laura Hernández Lorenzo
Universidad de Sevilla

Palabras clave: Estilística Computacional, Estilometría, Fernando de Herrera, Poesía del Siglo de Oro
Keywords: Computational Stylistics, Stylometry, Fernando de Herrera, Golden Age Spanish Poetry

  1. Introducción: los nuevos enfoques cuantitativos de lectura distante, macroanálisis y estilometría

El «giro computacional» que ha supuesto la aplicación de las nuevas metodologías de las Humanidades Digitales al estudio de la literatura española se materializó en un principio en la creación de bases de datos, bibliotecas y ediciones digitales (López Poza, 2015). Sin embargo, en el ámbito internacional las nuevas teorías de la lectura distante de Moretti (Moretti, 2007) y macroanálisis de Jockers (Jockers, 2013) no solo han revolucionado el estudio del hecho literario, sino que han provocado un polémico debate entre sus defensores y detractores en la prensa, como puede verse en el artículo publicado por The Guardian el pasado septiembre, ‘It’s like hitting a painting with a fish’. Can computer analysis tell us something new about literature? Frente a los enfoques inmanentistas de lectura próxima al texto, Moretti (Moretti, 2007) defiende el método de la lectura distante en la que la distancia no solo proporciona una mayor objetividad al estudio realizado, sino que permite observar más fácilmente las relaciones entre grandes cantidades de textos. Por otra parte, según Jockers:

what we have today in terms of literary and textual material and computational power represents a moment in revolution in the way we study the literary record […] large scale text analysis, text mining, ‘macroanalysis’, offers an important and necessary way of contextualizing our study of individual works of literature (Jockers, 2013).

Aunque estos enfoques cuantitativos son aún más escasos en la literatura española, destacan entre otros, el proyecto Posdata del LINHD, el análisis métrico del soneto áureo en el proyecto ADSO (Navarro-Colorado, 2015) y el trabajo llevado a cabo por el grupo alemán CLIGS. Por otra parte, la estilometría está hoy bien establecida en el campo de las Humanidades Digitales como metodología de especial interés para abordar problemas de autoría (Hoover, 2008). En el caso de la literatura española, estos representan un grave problema en el estudio de muchas obras del Siglo de Oro, aunque se han hecho algunos avances aplicando las técnicas de la estilometría al Lazarillo de Tormes (De la Rosa & Suárez, 2016) y al Quijote de Avellaneda (Blasco, 2016; Rißler-Pipka, 2016) principalmente. La efectividad de la aplicación de esta metodología al español ha sido también comprobada por Fradejas Rueda (Fradejas Rueda, 2016). Con todo, comparado con el número de estudios existentes en estilometría con textos en otras lenguas, en la literatura española nos encontramos con un campo casi sin explorar. Este trabajo pretende contribuir a llenar ese vacío en los estudios cuantitativos y de estilometría aplicados a la literatura en español, aproximándose mediante esas técnicas a uno de los problemas textuales y de autoría más complejos y apasionantes de la literatura española, el de los textos poéticos de Fernando de Herrera.

 

  1. Aplicando los métodos cuantitativos a la literatura española: el caso de los textos poéticos herrerianos

La obra poética del escritor conocido como «el Divino», de gran importancia dentro de la lírica del XVI y, si seguimos a Dámaso Alonso y a Antonio Vilanova, fundamental para entender la evolución del lenguaje poético desde Garcilaso a Góngora, nos ha llegado a través de dos ediciones y varios manuscritos. La primera edición, Algunas Obras, fue publicada en 1582 y ha sido considerada tradicionalmente como la más autorizada, ya que tenemos constancia de que el propio poeta participó en el proceso de impresión. La polémica surgió a partir de la publicación de la segunda edición, Versos de Fernando de Herrera, en 1619 tras la muerte del poeta. Esta última presenta diferencias muy significativas desde el punto de vista textual con los poemas publicados en vida, provocando un debate entre los estudiosos sobre la validez y autenticidad de las lecturas que presenta en lo que se ha llamado el «drama textual» de la poesía herreriana  (Cuevas, 1985). Por un lado, los estudiosos italianos, especialmente representados por Oreste Macrí (Macrí, 1972) e Inoria Pepe Sarno (Pepe Sarno, 1982) defienden la autoría herreriana y la evolución del estilo renacentista de Herrera hacia el Barroco, mientras que académicos de la talla de José Manuel Blecua (Blecua, 1958) y Cristóbal Cuevas rechazan tajantemente que los cambios introducidos en Versos se deban a la mano de Herrera y apuntan hacia una posible intervención de Pacheco en el texto. A pesar de los esfuerzos realizados hasta el momento, no se ha podido alcanzar ninguna conclusión definitiva, por lo que se hace necesario replantearse el estudio de este tema mediante un enfoque diferente que permita además abarcar el corpus completo y extraer nuevos datos.

El drama textual herreriano constituye, por tanto, una gran oportunidad para demostrar el interés de los métodos cuantitativos y computacionales para abordar problemas de la Historia de la Literatura en los que los métodos tradicionales, como la Filología, resultan insuficientes. Por otra parte, los enfoques cuantitativos y computacionales se han aplicado mayoritariamente a la narrativa, siendo la poesía el género menos estudiado desde esta metodología.

El primer paso fue digitalizar los textos poéticos de Herrera a través de software OCR. Para ello, se utilizó la edición de José Manuel Blecua (Herrera, 1975) por ser la más autorizada y la que contiene la totalidad de la poesía de El Divino. A continuación, el texto resultante fue revisado y corregido. Se mantuvo la ortografía original, ya que se trata de otro factor que refleja la variación entre los dos libros. Al mismo tiempo, se creó una copia modernizada según las reglas actuales del español.

Tras analizar el software existente de explotación de corpus, como AntConc y WordSmith Tools, y concluir que no cubrían las necesidades de este proyecto, se decidió crear un programa informático especialmente pensado para trabajar con corpus poéticos. Esto permitía, además, ampliar sucesivamente las funcionalidades del programa según fueran surgiendo diferentes necesidades en el proyecto. Este se desarrolló en Java, por ser un lenguaje multiplataforma, y se tituló Litcon.

Después de realizar un primer análisis de los subgéneros poéticos de Algunas Obras a través de técnicas computacionales (Hernández Lorenzo, 2016), se llevó a cabo un primer estudio contrastivo entre los dos corpus a través de la metodología de la Estilística Computacional. Los resultados mostraron la utilidad de esta metodología para completar los estudios tradicionales sobre el léxico poético de Herrera y sus diferencias en las dos obras.

El trabajo que presentamos en esta propuesta pretende ir un paso más allá mediante un análisis cuantitativo morfosintáctico y estilométrico de la poesía herreriana. Para el análisis morfosintáctico, el corpus modernizado de los textos poéticos de Herrera fue etiquetado morfosintácticamente de forma automática utilizando Freeling PoS tagger: <http://nlp.lsi.upc.edu/freeling/node/1>. Se creó una opción en Litcon para poder utilizar esta aplicación de Freeling directamente desde el programa, de forma que fuese más cómodo para el investigador y le permitiera a continuación trabajar en Litcon con el corpus etiquetado. Para completar el etiquetado de palabras características del siglo XVI que aparecen en la poesía de Herrera, se combinó la base de datos para castellano antiguo de Freeling (Sánchez-Marco, Boleda, & Padró, 2011) con la de castellano moderno (Padró & Stanilovsky, 2012). Además, se eligió Freeling frente a otro software de etiquetado automático debido a su alto porcentaje de aciertos en español. Seguidamente, el corpus etiquetado fue sometido a revisión. A continuación, se extrajeron datos cuantitativos. Unos resultados preliminares fueron presentados en AIUCD 2017, que mostraban cómo las categorías morfológicas que sufrían más cambios en el paso de Algunas Obras a Versos eran las de las llamadas «palabras función», consideradas en estilometría uno de los indicadores más fiables de la autoría de un texto. Por otra parte, los patrones adjetivo + nombre frente a nombre + adjetivo en contacto, -ya señalados por los estudiosos como uno de los rasgos más interesantes en ambas obras-, mostraban diferencias significativas. Para el congreso, se profundizará en estos primeros resultados y se analizarán las relaciones de adjetivo / nombre que no se encuentran en contacto, para la que se ha desarrollado una nueva funcionalidad en Litcon.

Para el enfoque estilométrico, utilizaremos el paquete Stylo (Eder, Rybicki, & Kestemont, 2008) y aplicaremos la función Rolling Delta a los poemas de autoría dudosa de Versos utilizando como corpus de referencia los poemas de Algunas Obras y otros manuscritos de certera autoría herreriana que han llegado hasta nosotros por un lado, y por otro, un corpus que hemos recogido de poemas de Pacheco, el principal sospechoso para los que niegan la autoría herreriana, principalmente obtenidos del Arte de la pintura (digitalizado en Google Books). Hemos elegido la función Rolling Delta, ya que es la función recomendada para detectar diferentes manos en trabajos colaborativos (Eder, 2016).

La combinación de estos dos enfoques nos llevará a plantear conclusiones en los siguientes ámbitos: 1) ¿Qué avances pueden hacerse sobre el estado de la cuestión del drama textual herreriano a través de técnicas computacionales? 2) ¿Es la sintaxis de Versos más compleja que la de Algunas Obras, como la crítica literaria ha planteado? 3) ¿Se puede confirmar o rechazar con métodos computacionales la mano de Pacheco en Versos?

Financiación

Este trabajo ha sido posible gracias a una ayuda de Formación de Profesorado Universitario (FPU) del Ministerio de Educación y Ciencia (MECD).

Bibliografía

BLASCO, Javier (2016), «Avellaneda desde la estilometría», en Ruiz Pérez, Pedro (ed.), Cervantes. Los viajes y los días, Madrid, Prosa Barroca y SIAL Ediciones, pp. 97–116.

Blecua, José Manuel (1958), «De nuevo sobre los textos poéticos de Herrera», Boletín de La Real Academia Española, XXXVIII, pp. 377–408.

Cuevas, Cristóbal (1985), «La cuestión textual» en Cuevas, Cristóbal (ed.), Poesía castellana original completa, Madrid, Cátedra, pp. 87–99.

de la Rosa, Javier, & Suárez, Juan Luis (2016), «The Life of Lazarillo de Tormes and of His Machine Learning Adversities. Non-traditional authorship attribution techniques in the context of the Lazarillo», Lemir, n.º 20, pp. 373–438.

Eder, Maciej (2016), «Rolling stylometry», Digital Scholarship in the Humanities, vol. 31, n.º 3, pp. 457–469.

Eder, Maciej, Rybicki, Jan, & Kestemont, Mike (2008), «Stylometry with R: A Package for Computational Text Analysis», The R Journal, XX,  pp. 1–15.

Fradejas Rueda, José Manuel (2016), «El análisis estilométrico aplicado a la literatura española: las novelas policiacas históricas», Caracteres. Estudios Culturales Y Críticos de La Esfera Digital, vol. 5, n.º 2, pp. 196–246.

Hernández Lorenzo, Laura (2016), «The Poetic Word of Fernando de Herrera . An Approach through Corpus and Computational Linguistics», en Moreno Ortiz, Antonio & Pérez-Hernández, Chantal (eds.), CILC 2016. 8th International Conference on Corpus Linguistics. EPiC Series in Language and Linguistics, n.º 1, pp. 170–180. En: (Fecha de consulta: 10-07-2017).

Herrera, Fernando de (1975), Obra poética (J. M. Blecua, ed.), Boletín de la Real Academia Española, Madrid.

Hoover, David L. (2008), «Quantitative Analysis and Literary Studies», en Schreibman, Susan & Siemens, Raymond George (eds.), A Companion to Digital Literary Studies, Blackwell, Oxford. En: (Fecha de consulta: 10-07-2017).

Jockers, Matthew L. (2013), Macroanalysis: digital method and literary history, Urbana, University of Illinois Press.

López Poza, Sagrario (2015), «Humanidades Digitales y literaturas hispánicas: presente y futuro», Ínsula, n.º 822, pp. 3–5.

Macrí, Oreste (1972), Fernando de Herrera, Madrid, Gredos.

Moretti, Franco (2007), La literatura vista desde lejos, Barcelona, Marbot Ediciones.

Navarro-Colorado, Borja (2015), «A computational linguistic approach to Spanish Golden Age Sonnets : metrical and semantic aspects», 4th Workshop on Computational Linguistics for Literature (CLfL 2015), pp. 105–113. En: (Fecha de consulta: 10-07-2017)

Padró, Lluís, & Stanilovsky, Evgeny (2012), «FreeLing 3 . 0 : Towards Wider Multilinguality», Proceedings of the Language Resources and Evaluation Conference (LREC 2012) ELRA, pp. 2473–2479. En: (Fecha de consulta: 10-07-2017)

Pepe Sarno, Inoria (1982), «Se non Herrera, chi? Varianti e metamorfosi nei sonetti di Fernando de Herrera», Studi Ispanici, pp. 33–69.

Rißler-Pipka, Nanette (2016), «Avellaneda y los problemas de la identificación del autor. Propuestas para una investigación con nuevas herramientas digitales», en Ehrlicher, Hanno (ed.), El otro Don Quijote. La continuación de Fernández de Avellaneda y sus efectos, Universität Augsburg, pp. 27–51.

Sánchez-Marco, Cristina, Boleda, Gemma, & Padró, Lluís (2011), «Extending the tool, or how to annotate historical language varieties», 5th ACL-HLT Workshop on Language Technology for Cultural Heritage, Social Sciences, and Humanities, June, pp.1–9.

Harvesting cultural knowledge supported by digital access routes in European infrastructures on the example of exploreAT!

Amelie Dorn
ACDH-OeAW

Caitlin Gura
ACDH-OeAW

Roberto Barbera
INFN

Davor Davidovic
Ruđer Bošković Institute

Eveline Wandl-Vogt
ACDH-OeAW

Palabras clave: Humanidades digitales; infraestructuras europeas; diversidad cultural, colaboración multidisciplinaria
Keywords: Digital Humanities; European infrastructures; cultural diversity; multidisciplinary collaboration

The rapid development of new digital tools and infrastructures in recent years and their application to a variety of disciplines has transformed how we access information available to us. This has also shaped the ways how knowledge in a diverse cultural context is accessed, used and re-used. The exploreAT! project builds upon not only Austrian but also European cultural identity, from the aspect of language, in particular, dialect. Unlike standard languages, dialects are in times of globalization under considerable threat of diminishing, which ultimately poses a risk to the intangible record that is language and through which a history of tangible culture is expressed.

In this paper we elaborate on the possibilities digital means and infrastructures offer in revealing and giving access to unique traditional cultural knowledge (UNESCO, 2012) contained in a non-standard language resource on the example of the Bavarian dialects in Austria, originating in the early 1900s. Its content has to-date been published partially as a five volume dictionary (WBÖ) (WBÖ, 1963-2015), and its digitised contents partially as an online database (DBÖ) (Wandl-Vogt, 2008; 2012) together with other folklore literature. While the DBÖ appears to be primarily a resource for linguistic study, it is a rich source of cultural information on various aspects of Austrian life and traditions (e.g., food, festivities, popular customs, etc.) originating from the time of the multicultural and multilingual Habsburg Monarchy to today. As an early Citizen Science project (Finke, 2013), it also embodies a community effort of preserving the primary method of oral communication within the common population at the time (Wiesinger, 2014), captures how Bavarian dialect plays a vital role in day to day Austrian culture, and shines light on the European character and importance of this particular dialect (UNESCO, 2014).

Digital Humanities tools allow our heterogeneous corpus of data to be virtually exploited and preserved (Jones & Ogilivie, 2013; Wandl-Vogt, Declerck, & Moerth, 2015; Schopper, Bowers & Wandl-Vogt, 2015). The plasticity of the internet allowed these data to become not only visible, but searchable and extractable. Through the digitization efforts, the hidden cultural narratives within the dictionary corpus can be uncovered (Meecham, 2013; Annoni, 2010).

Wider European infrastructures and frameworks, such as DARIAH-EU, CLARIN, COST ENeL, EGI ENGAGE (Wandl-Vogt, Barbera, La Rocca, Calanducci, Carrubba, Inserra, Kalman, Sipos, Farkas & Davidovic, 2016), enable our approach to be enriched and connected to related cultural undertakings on not only a European level, but also within a global network. These infrastructures bring to fruition the methodological development of the exploreAT! interdisciplinary project (Wandl-Vogt, Kieslinger, O´Connor & Theron, 2015) (e.g. Open Innovation in Science). Complying with the standards of these frameworks results in optimal interoperability, which benefits and enriches the knowledge of a shared, diverse European culture. Furthermore, the DARIAH Competence Centre, consisting of a virtual, international group of researchers aiming to broaden the use of advanced research infrastructures and cloud technologies, enables the exploreAT! project to be connected to a wide range of available cultural resources. Via the DARIAH Science Gateway , a web-based online portal, provides access to the Semantic Search Engine (SSE), which facilitates the connection to a number of services, including Europeana, Cultura Italia, etc. These aggregation services offer valuable points for interlinking cultural and linguistic data.

In this way, the described infrastructures and services enable access to, use and re-use of data across disciplines on a wider, global level, opening up resources for the benefit of knowledge society. With cultural projects, such as exploreAT! and wider European infrastructures working in concert, can the concept of «cultural infrastructures» be brought to fruition.

Supporting Agencies

The work presented in this paper has been supported by the EGI-Engage H2020 project (Grant number 654142), COST Action IS 1305 ENeL and the explore.AT! project, funded by Nationalstiftung für Forschung, Technologie und Entwicklung (Nationalstiftung FTE) at the Austrian Academy of Sciences.

Bibliografía

ANNONI, M. (2010), «Culture, Power and Dictionaries: How to use lexicography to study cultural objects», SemiotiX: A Global Information Magazine, Semiotix XN, n.º 2. En: (Fecha de consulta: 9-12-2016).

FINKE, P. (2013), Citizen Science: das unterschätzte Wissen der Laien, Oekom Verlag.

JONES, M.C. & OGILVIE, S. (eds.) (2013), «Keeping Languages Alive: Documentation, Pedagogy and Revitalization. CUP». En: .

MEECHAM, P. (2013), «Social Work. Museums. Technology, and Material Culture», en DROTNER, K. & SCHRODER, K. C. (eds.), Museum Communication and Social Media: The Connected Museum, New York, Routledge, pp.33-53.

SCHOPPER, D., BOWERS, J. & WANDL-VOGT, E. (2015), «dboe@TEI: remodelling a database of dialects into a rich LOD resource», Proceedings of the TEI conference and Members meetings 2015, Lyon, France. En: (Fecha de consulta: 16-07-2017).

UNESCO (2002), «Universal Declaration on Cultural Diversity: a vision, a conceptual platform, a pool of ideas for implementation, a new paradigm», Cultural Diversity series, vol. 1. En:   (Fecha de consulta: 06-07-2017).

UNESCO (2014), «Immaterial Cultural Heritage. Website». En: (Fecha de Consulta: 09-12-2016).

WANDL-VOGT, E. (2008), «Wie man ein Jahrhundertprojekt zeitgemäß hält: Datenbankgestützte Dialektlexikografie am Institut für Österreichische Dialekt- und Namenlexika (I Dinamlex) (mit 10 Abbildungen)», en: PETER, E. (eds.) (2006), Bausteine zur Wissenschaftsgeschichte von Dialektologie/germanistischer Sprachwissenschaft im 19. und 20. Jahrhundert. Beiträge zum 2. Kongress der internationalen Gesellschaft für Dialektologie des Deutschen, Wien, 20.-23, September, Wien, pp. 93-112.

WANDL-VOGT, E. (ed.) (2012), «Datenbank der bairischen Mundarten in Österreich electronically mapped (dbo@ema)». En: (Fecha de Consulta: 30-06-2017).

WANDL-VOGT, E., BARBERA, R., LA ROCCA, G., CALANDUCCI, A., CARRUBBA, A., INSERRA, A., KALMAN, T., SIPOS, G., FARKAS, Z. & DAVIDOVIC, D. (2016), «Furthering the Exploration of Language Diversity and Pan-European Culture: The DARIAH-CC Science Gateway for Lexicographers», Proceedings of EURALEX 2016, Georgia. Tbilisi.

WANDL-VOGT, E., DECLERCK, T. & MOERTH, K. (2015), «Towards a Pan European Lexicography by means of Linked Open Data», en KOSEM, I., JAKUBÍČEK, M., KALLAS, J., KREK, S. (eds.) (2015), Electronic lexicography in the 21st century: linking lexical data in the digital age, Proceedings of the eLex 2015 conference, 11-13 August 2015, Herstmonceux Castle, United Kingdom, Ljubljana/Brighton: Trojina, Institute for Applied Slovene Studies/Lexical Computing Ltd. pp. 342-355.

WANDL-VOGT, E., KIESLINGER, B., O´CONNOR, A. & THERON, R. (2015), «exploreAT! Perspektiven einer Transformation am Beispiel eines lexikographischen Jahrhundertprojekts», in DHd-Tagung 2015, Graz, Austria, Abstract band. En: (Fecha de consulta: 30-10-2015).

WIESINGER, P. (2014), «Nation und Sprache in Österreich. Das österreichische Deutsch in Gegenwart und Geschichte. 3., aktualisierte und neuerlich erweiterte Auflage», Austria: Forschung und Wissenschaft – Literatur und Sprachwissenschaft, Band 2. Wien: Lit Verlag GmbH & Co. KG, pp. 496-507.

Wörterbuch der bairischen Mundarten in Österreich (1963-2015). 5 Volumes. Wien: Verlag der Österreichischen Akademie der Wissenschaften.Vienna, Austria.

Análisis georrelacional de la fábrica arquitectónica en el Antiguo Reino de Sevilla en el tránsito a la Edad Moderna

Patricia Wanderley Ferreira-Lopes
Universidad de Sevilla

Francisco Pinto-Puerto
Universidad de Sevilla

Palabras clave: Modelos de Información Digitales, Sistema de Información Geográfica, Grafos, patrimonio, tardogótico.
Keywords: Digital Information Models, Geographic Information System, Graphs, Heritage, International Gothic.

  1. Introducción

El territorio podría ser entendido como una trama, hilos de distintos espesores y colores junto con sus nodos de diferentes formas, tamaños y arreglos que conforman sus espacios. Espacios formados por una diversidad de elementos, temporalidades, conexiones y variables, y en por sí mismo, dinámicos. Esos entramados lo convierten en un gran tejido multicapas difícil de comprehender. Sí, además, nos detenemos y observamos que los elementos que lo compone se influyen mutualmente, creando un sistema con varios subsistemas, entenderemos el grado de complejidad y las dificultades de aprehenderlos mediante fragmentos.

El desafío de entender la producción del espacio, como bien indicó Lefebvre, se eleva con la problemática de la sectorización de las disciplinas científicas y humanísticas (Lefebvre, 2013), cada una desarrollando temáticas y metodologías aisladas. Territorio y procesos, agentes y espacio, materiales y técnicas, economía y política, tiempo y espacio, se entremezclan en una difícil red de relaciones e interrelaciones que actúan de manera inevitable en la Arquitectura. No obstante, ambicionar explicar lo que interfiere o lo que ha interferido en la Arquitectura a lo largo del tiempo es una tarea difícil y quizás inabarcable tanto por el tiempo que demanda como por los infinitos factores a considerar, pero eso si, el enfoque interdisciplinar sería indispensable (Ferreira Lopes, 2017).

Este proyecto propone una experiencia piloto sobre la aplicación de modelos digitales de la información, basados en las herramientas de Sistema de Información Geográfica[1] (SIG) y Grafos (visualización de algoritmos), en el estudio del patrimonio. Se trata de investigar y experimentar sus potencialidades y limitaciones, estableciendo diseños, criterios y una propuesta de base de datos para el conocimiento de la materia patrimonial, desde un proceso científico y transversal que incorpora la complejidad de integrar diversos datos contemplando una aproximación multiescalar. En este sentido, tiene especial importancia el desarrollo del proyecto debido a los siguientes factores: la creación de una base de datos patrimonial susceptible de futura ampliación, uso, re-uso y análisis; su incidencia sobre el abordaje del patrimonio a distintas escalas (territorial, regional y urbana); su propuesta para la protección, conservación e interrelación de la información patrimonial y el desarrollo y puesta en marcha de una metodología que permite nuevos conocimientos y sinergias interdisciplinares bien como en otros contextos patrimoniales.

Para ello se propone un caso de estudio en el cual el objetivo es entender el patrimonio analizando su información mediante diversas fuentes heterogenias (documentos, cartografía, planos, publicaciones, estudios ya realizados, etc.) con el fin de investigar las relaciones de la fábrica edilicia (agentes, materiales, caminos, edificios, rutas, etc.) en el marco territorial del antiguo reino de Sevilla considerando su contexto socio-económico, político, científico-técnico y cultural, durante los años centrales del siglo XV hasta el XVI (v. fig. 1).  Aunque hayamos planteado esos límites espacio-temporales, los mismos presentan cierta flexibilidad a raíz de la necesidad de los análisis que hemos querido realizar y de los patrones que hemos encontrado.

En este sentido, queda claro, desde el comienzo del proyecto, el enfoque dirigido a la búsqueda de la comprensión de la arquitectura en este marco temporal a partir de modelos que permitan elucidar sus multicapas y relaciones como respuesta a una aproximación no-linear e integral. Esta investigación se define asimismo como limitada por los propios datos, informaciones y fuentes que fueron seleccionados y tratados, bien como por el propio diseño, esquematización y codificación propuestos. Es una interpretación desde los modelos digitales de la información, mediante el uso de dos tecnologías que poseen sus propias herramientas y arquitectura interna, utilizados para idear y construir nuevas metodologías de trabajo de investigación que por su propia naturaleza facilitan el trabajo interdisciplinar, convirtiéndose en vehículos de yuxtaposición de diferentes narrativas e investigaciones ya realizadas. Explorar herramientas como pretexto, entender la fábrica arquitectónica como finalidad y acercarse a la geografía como nexo que posibilita redefinir y reinterpretar la conformación del territorio orientándolo hacia una nueva conciencia palimpséstica del espacio. Tomar en préstamos estrategias procedentes de la ciencia de la información y potenciar nuevas formas de aproximarse a los estudios historiográficos facilita revisar cuestiones rígidas y antes inconexas que normalmente son comunes en el campo de estudios en el que el tiempo es la dimensión imperante.

Image and video hosting by TinyPic
Figura  1 Uso del SIG para investigación y análisis espacio-temporal. Esquema de la yuxtaposición de las distintas capas temáticas. Fuente: Patricia Ferreira Lopes. Grabado Sevilla siglo XVI, dibujo de Hendrick Focken, Gabinete de Estampas de la Biblioteca Nacional; Modelo 3D realizado a partir del MDT DERA 100, Junta Andalucía

  1. Metodología

La metodología desarrollada en el proyecto sigue un proceso experimental continuado – de ensayo y error – de manera que la toma de decisiones cuanto a cuestiones técnicas atenderán siempre a los objetivos establecidos y condicionantes del objeto de estudio. Las diversas técnicas, herramientas y métodos de trabajo aplicadas durante el proceso de la investigación tendrán como base conceptual principal su utilidad práctica también para futuros estudios. En este sentido, se establecen algunas directrices iniciales del proceso metodológico con el fin de establecer fases de desarrollo:

1) Análisis de la situación de partida. Estudio de la problemática general del contexto histórico y su reflejo en la interpretación, visualización y conocimiento del patrimonio en sus distintas escalas.

  1. Búsqueda, Selección y análisis de experiencias similares en el ámbito nacional e internacional[2]. Realización de fichas por publicación o proyecto estudiado.
  2. Análisis de los avances ya realizados en la base de datos «Archibase» desarrollada por la Red Tardogótica[3] en el cual se ha producido un «diccionario» de los profesionales en el contexto del tardogótico en la Península Ibérica. Seleccionar y analizar los agentes que han intervenido en el antiguo reino de Sevilla.
  3. Definición del ámbito de trabajo elegido teniendo en consideración su amplitud, complejidad y extensión de información posible.
  4. Estudio y análisis de las herramientas de SIG y Grafos susceptibles de aplicar en el proceso de modelo del objeto de estudio[4].

2) Adquisición y organización de datos a partir de documentación gráfica y textual de fuentes primarias y secundarias. Entrevistas y consultas con expertos del tema.

  1. Recopilación de fuentes documentales cartográficas, escritas, publicadas, etc.
  2. Tratamiento, sistematización y organización de las fuentes.

3) Generación de los modelos.

  1. Diseño de la base de datos para los modelos SIG y Grafos. Por un lado, se genera una IDE[5] de diferentes naturalezas geométricas (punto, línea, polígono) que se presenta en bloques temáticos (político/administrativo, infraestructura, producción) y por otro una base de datos relacionada[6] con las actividades desarrolladas por los agentes en los edificios (contempla los edificios, canteras, partes de edificios, elementos constructivos, profesionales y mecenas), cada evento contiene sus características y atributos pertinentes para posterior análisis en ambos modelos.
  2. Estudio terminologías a adoptar[7].
  3. Diseño de la Infraestructura de Datos Espaciales (IDE) que se utilizará en el modelo SIG. Los atributos de los elementos representados serán de carácter: temático (características, categorías, denominación, nombre, actuación, etc.); temporal (fechas por año) y espacial (coordenadas).
  4. Diseño del esquema de relación del modelo de Grafos. Los atributos de los nodos y aristas serán de carácter: temático y temporal.
  5. Estudio de las posibles opciones de ampliación y análisis de los dos modelos con el fin de servir a futuros trabajos de los trabajos desarrollados en el Proyecto I+D.
  6. Tratamiento, digitalización e incorporación de datos.

4) Consultas, testeo, análisis y generación de visualización (v. fig. 2, fig.3, fig. 4).

5) Evaluación de los resultados logrados, revisión y corrección.

6) Difusión del modelo mediante plataforma online y publicaciones.

Image and video hosting by TinyPic
Figura  2 Ejemplo de visualización y análisis realizado con el Modelo SIG creado. En esta imagen puede verse el análisis de las actividades realizadas por Diego de Riaño hasta ahora añadidas a la base de datos. Las líneas representan las rutas realizadas por Riaño, se desplazan a través del tiempo. Fuente: Patricia Ferreira Lopes

Image and video hosting by TinyPic
Figura  3 Ejemplo de consulta y análisis realizado con el Modelo de Base de datos basada en Grafos mediante el uso de Sylvadb. La visualización enseña los agentes que tienen la categoría profesional de maestros y que han trabajado en alguna “capilla” (parte edificio). Fuente: Patricia Ferreira Lopes.

Image and video hosting by TinyPic
Figura  4 Ejemplo de visualización y análisis realizada con el Modelo SIG creado. En esta imagen puede verse el análisis de densidad realizado con la capa evento, analizando la densidad de los atributos «parte edificio». Fuente: Patricia Ferreira Lopes

Financiación

Esta investigación forma parte del proyecto HAR2016-78113-R Tutela sostenible del patrimonio cultural a través de modelos digitales BIM y SIG. Contribución al conocimiento e innovación social del Programa Nacional de Investigación Desarrollo e Innovación dirigido a los Retos de la Sociedad y financiado por el Ministerio de Economía y Competitividad y fondos FEDER y del proyecto HAR2016-76371-P Diego de Riaño, Diego Siloe y la Transición del Gótico al Renacimiento en España. Arquitectura y Ciudad: Técnica, Lenguaje y Concepción Espacial del Programa Estatal de Fomento de la Investigación Científica y Técnica de Excelencia, financiado por el Ministerio de Economía y Competitividad.

Bibliografía

CRESPO SOLANA, Ana (2014), Spatio-temporal narratives: historical GIS and the study of global trading networks (1500-1800), Newcastle, Cambridge Scholars Pub.

FERREIRA LOPES, Patricia (2017), «Datos e imagen. La visualización como herramienta arquitectónica», en PARRA BAÑÓN, José Joaquín (dir.), ACCA 016: análisis y comunicación contemporánea de la arquitectura, Sevilla, Universidad de Sevilla, pp. 144-159.

FISCHER, Manfred M. & NIJKAMP, Peter (1992), «Geographic information System and spatial analysis», The annals of Regional Science, vol. 1, n.º 26, pp. 3-17.

GREGORY, Ian (2010), «Exploiting Time and Space: A Challenge for GIS in the Digital Humanities», en BODENHAMER, David J., CORRIGAN, John y HARRIS, Trevor M (ed.), The Spatial Humanities: GIS and the Future of Humanities Scholarship, Indiana University Press, pp. 58–75.

GREGORY, Ian (2005), A Place in History: A Guide to Using GIS in Historical Research, Center for Data Digitalisation and Analysis.

KNOWLES, Anne Kelly & HILLIER, Amy (2008), Placing history: how maps, spatial data, and GIS are changing historical scholarship, ESRI Press, Redlands.

MOLS, Stephan (2014), «Mapping the Via Appia», Forma Urbis XIX, n.º 9, pp. 38-41.

SUÁREZ, Juan Luis y DE LA ROSA, Javier (2015), «A Quantitative Approach to Beauty. Perceived Attractiveness of Human Faces in World Painting», DAH-Journal, n.º 1, pp. 112-129.

SUÁREZ, Juan Luis, SANCHO CAPARRINI, Fernando & DE LA ROSA, Javier (2012), «Sustaining a Global Community: Art and Religion in the Network of Baroque Hispanic-American Paintings», Leonardo, vol. 45, n.º 3, p. 281.

TERPSTRA, Nicholas y ROSE, Colin (ed.) (2016), Mapping Space, Sense, and Movement in Florence: Historical GIS and the Early Modern City, Routledge.

DARMC, Digital Atlas of Roman and Medieval Civilizations, Harvard University. En: <https://darmc.harvard.edu/> (Fecha de Consulta: 20-02-2016).

[1] Según Fisher y Nijkamp, un SIG sería un sistema de información computarizado que procura capturar, almacenar, manipular, analizar y exhibir los datos tabulares espacial referidos y asociados de la cualidad, para solucionar problemas complejos de la investigación, del planeamiento y de la gerencia (Fisher y Nijkamp, 1992).

[2] Las experiencias analizadas son proyectos de largo plazo, que cuentan con la participación de profesionales de distintas disciplinas, en algunos casos son materializados en formato digital mediante la creación de nuevas aplicaciones o visualizadores, en otros, publicaciones. Un buen ejemplo lo tenemos en el “Decima Proyect” sobre la ciudad de Firenze durante el periodo renacentista (Terpstra y Rose, 2016), en otros en los cuales la red de comunicación e infraestructura son puestas en evidencia (Crespo Solana, 2014; Mols, 2014; DARMC, 2017), los referentes al estudio de la literatura y arte  (Suarez y de la Rosa, 2015; Suarez, Sancho y de la Rosa, 2012)  y aquellos otros en los cuales las herramientas digitales se extienden a diferentes temáticas (Gregory, 2005; Gregory, 2010; Knowles y Hillier, 2005).

[3] Convenio de colaboración para la propuesta de una red temática de investigación cooperativa firmado en 2013 está formado por grupos de investigación de las Universidades de Cantabria, Sevilla, Lisboa y Palermo.

[4] En este proyecto estamos utilizando el conjunto de herramientas ArcGIS de la empresa ESRI y la plataforma Sylvadb desarrollada por el CulturePlexLab de la Western University, Canadá.

[5] Infraestructura de Datos Espaciales.

[6] Mediante la utilización del software Access. Elegimos este software dada su facilidad de manejo y su interoperabilidad con otras plataformas/herramientas como Excel, ArcGIS, CVS, etc.

[7] El tratamiento de datos derivado de publicaciones y proyectos nos ha permitido verificar distintas terminologías adoptadas según el criterio o gusto del autor. En este sentido, con el fin de uniformizar e evitar duplicidades en los análisis, elegimos utilizar las terminologías y significados establecidos por el Tesauro Ministerio de Cultura y Deporte del Patrimonio Cultural de España.

Introducción al uso del paquete {koRpus} de R para el tratamiento de la complejidad léxica y la legibilidad en corpus lingüísticos

Nicolas Ballier
Université Paris-Diderot, USPC

Paula Lissón
Université Paris-Diderot, USPC

Verónica C. Trujillo-González
ULPGC

Palabras clave: complejidad léxica, legibilidad, lingüística de corpus, R, análisis textual
Keywords: lexical complexity, readability, corpus linguistics, R, text analysis

La lingüística de corpus, un ámbito cada vez más interdisciplinar, reúne técnicas provenientes de disciplinas como el Tratamiento Automático del Lenguaje (TAL), la aplicación de modelos estadísticos o, incluso, la extracción de datos mediante el uso de programas informáticos utilizados principalmente en la minería de datos. Así, el uso de lenguajes de programación como Python o R (R Core Team, 2016) está cada vez más extendido en la lingüística de corpus, gracias a la creación de librerías o paquetes especializados en el tratamiento de corpus.

En la actualidad, existen más de 50[1] paquetes diseñados para la investigación de corpus lingüísticos, concebidos desde enfoques distintos, que responden a diferentes objetivos (exploración de corpus orales/escritos, lexicometría y textometría, entre otros). Nuestra propuesta se basa en la explotación del paquete {koRpus} (Michalke, 2016) , que contiene una implementación de 15 métricas de diversidad léxica y 34 métricas de legibilidad. Estas métricas nos permiten evaluar cuantitativamente la riqueza y la variedad del léxico y de las estructuras sintácticas empleadas en un corpus dado (cf. Lissón, 2017).

Mediante el uso de un anotador automático de partes del discurso (Treetagger,  Schmid, 1995) y sus versiones en múltiples idiomas, las métricas pueden aplicarse a corpus de diversas lenguas, permitiendo así el desarrollo de estudios comparativos multilingües. Además, el formato en el que {koRpus} genera los resultados (conocido como data frame en R, cf. Ballier, 2016) facilita su posterior tratamiento estadístico. Así, por ejemplo, técnicas como el Análisis de Componentes Principales (ACP), el Análisis Factorial (AF), el Análisis Discriminante Lineal (ADL) o la creación de random forests (Tagliamonte y Baayen, 2012) pueden llevarse a cabo fácilmente con otros paquetes de R.

Nuestra contribución describe y analiza la cadena de tratamiento que debe llevarse a cabo para la utilización de las métricas implementadas en {koRpus}, desde la importación del corpus en formato txt, pasando por la «tokenización» con TreeTagger, la extracción y visualización de los resultados, hasta la modelización estadística con técnicas de reducción de la dimensionalidad. Se trata de mostrar cómo el paquete {koRpus} puede ser utilizado para la investigación de la variedad léxica y la legibilidad. Estos dos conceptos son clave en la investigación de la adquisición y el aprendizaje de lenguas extranjeras, pero también en otras aplicaciones como la autoría de textos y la lingüística forense.

La expansión de las tecnologías computacionales en la lingüística de corpus abre un nuevo paradigma de investigación para los lingüistas. La creación y difusión de corpus cada vez más extensos obliga, en cierta manera, al investigador a familiarizarse con programas complejos que faciliten la interoperabilidad y el paso del estudio cualitativo al cuantitativo, y viceversa. En ese sentido, nuestra contribución a HDH 2017 consiste en presentar la metodología necesaria para llevar a cabo estudios sobre el léxico y la legibilidad utilizando el lenguaje de programación R, mostrando el espectro de posibilidades que el tratamiento automático de datos proporcionado por el paquete {koRpus} ofrece.

Bibliografía

BALLIER, N. (2016), «R, pour un écosystème du traitement des données? L’exemple de la linguistique», Données, métadonnées des corpus et catalogage des objets en sciences humaines et sociales.

LISSÓN, P. (2017), A corpus-based study of lexical diversity and readability in EFL learners’ productions: towards a critical statistical approach, Unpublished MA thesis, Paris, France, Université Paris Diderot.

MICHALKE, M. (2016), «koRpus: An R Package for Text Analysis (Versión 0.06-5)». En:  .

R Core Team (2016), «R: A language and environment for statistical computing. (Versión 3.3.1 (2016-06-21)», R Foundation for Statistical Computing,  Vienna, Austria. En: .

SCHMID, H. (1995), Treetagger| a language independent part-of-speech tagger, Institut für Maschinelle Sprachverarbeitung, Universität Stuttgart, n.º 43, p. 28.

TAGLIAMONTE, S. A. & BAAYEN, R. H. (2012), «Models, forests, and trees of York English: Was/were variation as a case study for statistical practice», Language Variation and Change, 24(2), pp. 135-178.

[1] .

Un libro electrónico interactivo: The Diying Book

Adrián Menéndez de la Cuesta González
Universidad Complutense de Madrid

Cristina Jiménez Barranquero
Universidad Complutense de Madrid

Carla del Moral
París 8

Palabras clave: literatura digital, literatura transnacional, textualidad digital, ePUB, PubCoder
Keywords: electronic literature, transnational literature, digital textuality, ePUB, PubCoder

El proyecto Un libro electrónico interactivo: The Dying Book nace de la colaboración entre la Universidad Complutense de Madrid, la Université Paris8 y la editorial L’Apprimerie, especializada en libros enriquecidos e interactivos. Su objetivo es la creación de un libro interactivo multiplataforma escrito en formato ePub.

Nuestro grupo está formado por dos estudiantes del Máster en Letras Digitales de la UCM y otros una del Master en Pratiques textuelles numériques de Paris8. Parte por tanto de un marco institucional dual: a la vez académico y profesional, y con clara vocación multicultural, posible gracias a la financiación del proyecto IDEFI-Créatic.

The Dying Book se concibe en torno a la analogía entre la agonía y muerte del libro y la del lector. Se construye por tanto sobre las conexiones entre la textualidad y la corporalidad. La experiencia de lectura se propone como una exploración de las partes del cuerpo, que asimismo resultan ser las partes del propio libro. Así, el lector emprende un viaje a través de las diferentes partes del cuerpo: la mano, la espalda, la garganta, la cabeza, etc. El proyecto no solo experimenta con estas analogías, sino que se adentra en sus posibles patologías y evoluciones, invitando al lector a reflexionar sobre las metamorfosis del cuerpo y de la textualidad.

En paralelo, nuestro trabajo se construye de forma más o menos explícita sobre una relectura de la tradición literaria que nos precede. Por un lado, reivindicamos una reescritura de autores canónicos de la literatura impresa como Agustín de Hipona, Friedrich Hölderlin o T. S. Eliot, reconfigurando sus textos en un contexto digital. Esta vocación intertextual se hermana con una tradición dentro de la literatura digital más innovadora, que trabaja sobre la actualización del canon bajo nuevos paradigmas, como hace el grupo PO.EX en Portugal (Torres y Baldwin, 2014). De este modo, reivindicamos asimismo una filiación con la tradición digital. Aparte de PO.EX, nos interesan a nivel temático las reescrituras del mito de Frankenstein en obras digitales como Patchwork Girl de Shelley Jackson (Goicoechea, 2004: sec. 6.2.3) y, a nivel formal, la llamada «estética de la frustración» de Philippe Bootz (Adell, 2005: 105).

Los intereses de los que partimos suponen retos gráficos, editoriales y técnicos.  A nivel gráfico, es preciso sugerir conexiones visuales entre el proceso de lectura y la dimensión física del libro y el cuerpo del lector. Esto dificulta la adaptación a distintas plataformas, debido a que los distintos tamaños de pantalla suponen interacciones distintas con el cuerpo. Se vuelve necesario apelar a soluciones creativas y flexibles para que el mismo texto se adapte a los distintos dispositivos de lectura. En paralelo, otro reto gráfico de The Dying Book consiste en aprovechar los ecos de la literatura impresa, omnipresentes en el medio digital (Amiran, 1997, 2010) para profundizar en una reflexión sobre la textualidad digital. Una mirada crítica a la historia de la lectura (Cavallo y Chartier, 2011), como la que realizamos por ejemplo en ciertas páginas sobre la lectura silenciosa de San Ambrosio, se convierte así en un modo paradójico de superar el paradigma antiguo y afirmar las especificidades del medio digital (Paixao de Sousa, 2007).

A nivel editorial la colaboración con una casa de edición experta en este sector permite mantenernos en el difícil equilibrio entre la experimentación más lúdica y la experiencia de profesionales en la compleja industria del libro. Precisamente es el contacto con el mundo editorial el que determina que escojamos unas tecnologías frente a otras, escogiendo por ejemplo publicar el libro en formato ePUB, estándar asentado de la literatura digital y creado por el Open eBook Forum, lo que permitirá una mayor difusión y su lectura en todo tipo de dispositivos (Lebert, 2009: 77-78).

A nivel tecnológico, explotamos los recursos multimedia que permite el formato ePub, pero sin limitarnos en ningún momento a una mera multimedialidad: The Dying Book tiene una vocación radicalmente interactiva, que permita no solo reflexionar sobre la historia del libro, sino que también obligue al lector a involucrarse en ella, incluyendo no solo imágenes y audios, sino también áreas sensibles y código JavaScript. Fue asimismo con el soporte de L’Apprimerie que descubrimos el software de edición PubCoder, que fue el utilizado para la realizar el proyecto. Las ventajas de este programa radican en su especialización para la edición de textos de alto contenido interactivo, permitiendo así una riqueza de recursos que difícilmente hubiera sido posible en otros editores como InDesign, IBooks Author o Sigil. Todas estas decisiones podrían suponer una serie de restricciones a la hora de visualizar el contenido del libro. Sin embargo, en esta fase del proyecto, The Dying Book puede visualizarse tanto en Smartphone, como en tableta y en ordenador, asimismo en sistemas Windows como Apple. Cabe precisar, no obstante, que en ocasiones puede ser necesario utilizar, para una correcta visualización, softwares como Readium.

Nuestro proyecto está diseñado para ser accesible y lúdico para un público amplio, sin conocimientos previos de literatura digital. Nuestra decisión de usar un formato ePub multiplataforma se debe a esta filosofía: queremos formar a nuevos lectores en las nuevas textualidades e introducir las vanguardias creativas en el mercado editorial. A esto cabe añadir que, dada la diversidad de nuestro grupo creativo (español y mexicano, en un marco institucional francés), la multiculturalidad, la interdisciplinariedad y el multilingüismo se convierten en vías para profundizar en las reflexiones de las que parte el libro. El libro se elaboró en una primera fase en inglés, idioma vehicular del proyecto; teniendo en cuenta que ninguno de los participantes éramos nativos en esta lengua, decidimos aprovechar esta situación y explorar los desvíos de la lengua imperial reapropiada por sus hablantes no-nativos, hibridando la supuesta pureza lingüística de la lengua con giros en otros idiomas, explotando las posibilidades del criollismo y el multilingüismo. En una segunda fase decidimos trasladar el proyecto inglés al español, manteniendo nuestro interés por la diversidad lingüística, pero en este caso centrándonos en las distintas variedades del español, explotando las diferencias entre el español mexicano y el peninsular. En una tercera fase, estamos abiertos a incorporar otras lenguas: particularmente interesante sería triangular el proyecto con una versión en francés, ya que el programa parte en medida de instituciones francesas.

Presentaremos en nuestro póster el proceso de concepción y construcción de nuestro e-book tanto desde el punto de vista artístico como técnico, al tiempo que mostraremos a los asistentes su funcionamiento para móviles, tabletas y ordenadores.

Financiación

La financiación para realizar el taller de trabajo del que surgió The Dying Book se ha obtenido del proyecto francés IDEFI-Créatic (idefi-creatic.net), iniciativa de la universidad Paris8. Gracias a este apoyo económico fue posible la realización de dicho taller de trabajo en Madrid del 8 al 12 de junio de 2017 en el que alumnos de las Universidad Paris8 y la Universidad Complutense de Madrid pudimos reunirnos para llevar a cabo la concepción de este libro electrónico.

Bibliografía

ADELL, Joan-Elies (2005), «¿Ficción o dicción? Sobre la nueva condición de la textualidad literaria», en BORRÁS CASTANYER, Laura (ed.) (2005), Textualidades electrónicas: Nuevos escenarios para la literatura, Barcelona, UOC, pp. 95-114.

AMIRAN, Eyal (1997), «The Publishing Imaginary and Electronic Media», Minnesota Review 48 (1), pp. 91–102.

——— (2010), «The rhetoric of digital Utopia after Sade: Utopian architecture and the static subject of digital art», Discourse vol. 32, n.º 2, pp. 186–211.

CAVALLO, Guglielmo, y CHARTIER, Roger, (eds.) (2011), Historia de la lectura en el mundo occidental, Pensamiento, Barcelona, Madrid, Taurus.

GOICOECHEA, María (2004), «El lector en el ciberespacio: Una etnografía literaria de la cibercultura». En: .

LEBERT, Marie (2009), Una corta historia del eBook. Project Gutenberg. En: .

PAIXOA DE SOUSA, Maria Clara (2007), «Digital Text : Conceptual and Methodological Frontiers», en SANZ, Amelia y ROMERO, Dolores (eds.), Literatures in the Digital Era: Theory and Praxis, Newcastle, Cambridge Scholars Publishing, pp. 233-52.

TORRES, Rui y BALDWIN, Sandy (2014), PO.EX., West Virginia University Press. En: .

Digital maps and quantitative data analysis of the discursive aspects of Spanish Peruvian chronicles of the 16th century

Gabriella M. Lambrecht
Universidad de Würzburg

This poster aims to depict the outcome of a survey on Spanish chronicles of 16th-century-Peru based on digital maps and a Media Wiki page resuming my quantitative data analysis of three chronicle text books in the context of a rhetoric analysis of the literacy and discursivity of these texts. Since the history of the Spanish-Peruvian conquest offers an incredibly huge amount of detailed information and data in its chronicles and relations, a computer-based quantitative data analysis of these events is obviously more than necessary – as a base but also as the outcome of traditional literary studies. Such project has never been realized before in this context.

Even though the focus of my analysis is laid on only three of the many chronicles and texts, (i.e. Pedro Pizarro, Agustín de Zárate and Garcilaso de la Vega) countless pieces of information and variation between the authors must be considered in order to depict different intentions and creations of meaning within their specific discourse. Just to give an example: describing the events of the battle at Salinas (the first battle of Francisco Pizarro against Diego de Almagro when conquering Peru), Pedro Pizarro named only a few participants, while Zárate fills some paragraphs only by dropping names; Garcilaso de la Vega, however, needs even two pages just to sum up all the participants he claims to know. Especially by considering today’s post-factual era, I consider it as immensely important to depict these massive differences in early-modern chronicles from a postcolonial perspective: this historiography can be considered as the beginnings of the historiography of the unknown and hence right away as the beginning of post-historical facts in an alienated territory.

In addition, one should also pay attention to the incredibly different descriptions of the conquerors’ routes in Spanish-Peruvian historiography. Even though maps of the conquest can be found in almost every history book, there is hardly any reflection on the information base, i.e. the chronicles and relations that are implying enormous variations when comparing them. These variations shall be shown in a digital map linked to a Media Wiki project offering detailed information on the Peruvian civil wars during the conquest.

The digital project is hence based on three branches that are linked together: 1.) an SQL-data base containing detailed charts and information on the four big battles during the conquest between 1537 and 1554: Salinas, Chupas, Quito and Jaquijajhuana, as they are described in the three chronicle texts. 2.) A digital map where the different routes of the Pizarros and Almagristas are visible. Moreover, this digital map aims to point out the different aspects of the described routes by each author in a contrastive analysis. This map is created with the open-source programme OpenLayers4 based on java script. 3.) A media-wiki page linked to the digital map should offer a detailed overview of the events as they are described in the different texts. Of course, wikipedia pages dealing with the Peruvian civil wars do already exist but unfortunately, there is a striking flaw: even if sources (i.e. the chronicles) are mentioned on these webpages, there is neither any attention paid to the differentiations of the texts nor to their discursivity.

This quantitative data analysis is hence trying to make a step towards a certain perspective on historicity. Taken into account that such media as Wikipedia still create the illusion of an objective historical version, simply by the use of chronicles and other sources that can be generally considered as being «historical», this project can be seen as an effort to deconstruct mechanisms of historicism by means of digital media, such as digital maps, database and an open platform (Media Wiki) by disclosing the different discourses at the beginnings of Spanish- Peruvian history.

On figure speech and text types

Peggy Bockwinkel
Universidad de Stuttgart

Palabras clave: corpus lingüístico, lingüistica, estudios literarios, análisis de texto cuantitativos
Keywords: corpus linguistics, linguistics, literary studies, quantitative text analysis

  1. Introduction

From a linguistic point of view, texts can be categorised in different text types as letters, telephone calls, etc. based on the way, how communication is presented: ‘dialogical’, ‘face to face’ and ‘oral communication’. A letter is dialogical, but not face to face and not oral communication, whereas a telephone conversation is dialogical and oral, but not face to face (Diewald, 1991).

In literary studies, it is more common to categorise literary texts according to the genres drama, prose and verse. These categories are based on a historical tradition and do not match with the linguistic categorisation via communication types: in prose, there is dialogical communication, i.e. direct speech between figures, as well as the monological communication of the narrator.

However, the transfer of these communication-based categories («dialogical», «face to face» and «oral communication») on literary texts offers the possibility to distinguish between different sub-texts that have their own stylistic structure.

I will claim that figure and narrator speech in prose corresponds to different communicative text types, and that this correspondence can be detected by deictic terms. This will be shown by a quantitative analysis of deictic terms that reveals a statistic relevant correlation.

Why is this analysis important for the DH? Text analysis in the digital humanities is based on grammatical features like function words, e.g. for stylometry. Deictic expressions are a fundamental part of these function words. When doing quantitative text analysis in prose, it seems important to distinguish between figure and narrator speech, else the results can be blurred.

  1. Corpus

The main corpus consists of 200 German literary texts from the 18th to the 20th century (randomly out of the TextGrid Repository), one hundred each in prose and drama. The dramatic texts function as a baseline because they consist almost completely of figure speech. It is assumed that there is a comparable deictic density in these texts which should correlate with the results in the figure speech of the prose texts.

  1. Analysis
  2. A list of deictic terms is set up (consisting of personal pronouns of the 1st and 2nd person, temporal and special adverbs, etc.), adjusted to the most frequent (MF) deictic terms of the corpus.
  3. All texts in prose are separated into figure and narrator speech (Figure speech is defined here as ‘direct speech’, which encompasses everything between two quotation marks. Indirect speech, that can not be detected automatically, is subsumed to narrator speech). After the separation the corpus thus consists of 400 (sub-)texts: 100 for each category drama, prose, figure and narrator speech.
  4. The 4, 10 and 25 MF deictic terms in the corpus are analysed and compared.
  5. The results are visualised.

 

  1. Results

Figure 1 shows the relative frequency of the four MF deictic terms. The difference between narrator speech and character speech in novels/plays is striking.

Image and video hosting by TinyPic
Figure 1 The left side of the table refers to Diewald, 1991: 383; the right side shows the average results of the analysis on literary texts

The results in figure 1 as well as the graph in figure 2 clearly show that narrator and figure speech belong to different (linguistic) text types. There is no significant change in the density, no matter if the analysis is based on 4, 10 or 25 MF deictic terms (fig. 3).

Image and video hosting by TinyPic
Figure 2 The four most frequent deictic terms in comparison with drama, prose, narrator and figure speech

Image and video hosting by TinyPic
Figure 3 The 10 most frequent deictic terms are on the left and the 25 MF on the right

 

  1. Conclusion

It was shown that even with respect to the frequency of only four deictic terms (which are ich, mir, du, mich)[1], the results are statistically significant (fig. 2). The results remain stable when the analysis is repeated with 10 and 25 MF deictic terms.

Further analyses are necessary to find out how much indirect speech there is in prose, and how much it affects the results when it is grouped together with narrator speech.

Deixis is a linguistical feature that exists in all languages. However, there is a distinct tendency in different languages. While Japanese is a deictic language, English is an anaphoric language. German is in between (Tanaka, 2011). Therefore, quantitative analyses of deixis in literary texts in different languages would be a step further in fundamental research in linguistics and DH literary studies.

 

Bibliography

DIEWALD, Gabriele (1991), Deixis und Textsorten im Deutschen, Tübingen, Niemeyer.

TANAKA, Shin (2011), Deixis und Anaphorik. Referenzstrategien in Text, Satz und Wort, Berlín, de Gruyter.

[1] In English: ‘I’, ‘me’, ‘you’, ‘myself’.

El corte láser digital en la creación de obra gráfica

Salvador Haro González
Universidad de Málaga

Palabras clave: grabado, obra gráfica, nuevas tecnologías, corte láser
Keywords: engraving, prints, new technologies, laser-cut

Las tecnologías digitales se incorporaron a la práctica artística desde sus primeros balbuceos, pues los artistas siempre han estado atentos a las posibilidades que los desarrollos tecnológicos les han ofrecido históricamente (Ball, 2003). También han llegado a la producción de obra gráfica, aunque en este campo, con largas tradiciones próximas a las artes aplicadas, ha habido severas reticencias desde los más puristas hasta hace no muchos años.

La primera forma de incorporación de las nuevas tecnologías digitales a la obra gráfica ha sido mediante la impresión por medios digitales, fundamentalmente a partir de impresoras piezoeléctricas (Soler y Castro, 2006). Estas estampas digitales, por sí mismas o hibridadas con otros procedimientos tradicionales, han dado lugar a interesantes obras en los últimos años en manos de artistas que han sabido incorporar los nuevos medios digitales en su producción gráfica (Cherix, 2012).

Aunque existen hace ya algún tiempo, no ha sido sino recientemente que las máquinas de impresión por corte láser se han popularizado y son accesibles y hasta cierto punto asequibles. Se trata de una máquina que funciona a partir de imágenes o dibujos y que, con un cabezal de rayo láser, recorta u horada una lámina más o menos gruesa a partir del motivo, y todo ello mediante procesos digitales. Sus aplicaciones en trabajos publicitarios o comerciales ha supuesto que muchos centros de impresión convencionales hayan incorporado estas máquinas, prestando servicios puntuales a usuarios. Esto ha permitido a los artistas comenzar a incorporar este recurso en su producción artística en general y, en el caso que nos ocupa, a la producción de obra gráfica.

Algunos artistas internacionales han producido ya un interesante cuerpo de obras utilizando este recurso, como Rachel Whiteread, que produce piezas de madera fina recortada con láser, Charlotte Hodes que recorta el papel mismo, o Regina Silveira, que produce vinilos de recorte con esta tecnología. Terry Winters ha sido de especial interés para el desarrollo de esta investigación, pues es de los pocos que ha utilizado el corte láser para tallar sus xilografías, obteniendo un resultado que combina la precisión mecánica de la línea con las cualidades superficiales del grabado en madera (Coldwell, 2010:166-169).

Ya no se trata (o no sólo) de producir imágenes aprovechando esta tecnología, sino de generar matrices susceptibles de ser estampadas siguiendo los procesos tradicionales de entintado y obtención de la estampa a través de un tórculo u otro tipo de prensa. En mi caso, durante los últimos dos años he estado investigando las posibilidades plásticas de estos medios aplicados al grabado, lo que ha dado lugar a la producción de algunas obras, pues la investigación se ha realizado desde la práctica artística.

Con esta tecnología, se pueden producir tanto matrices para grabado en relieve como para grabado en hueco. En el primer caso, es posible trabajar con una extensa gama de materiales, entre la que se incluyen las láminas de madera que permiten un entintado superficial con rodillo que refleja, en la estampación, la veta de la madera, produciendo interesantes efectos cuando se combina este medio de impresión secular con imágenes fotográficas y trazados vectoriales. Puesto que la impresora de corte láser interpreta los signos como cortes, y en el grabado en relieve lo que se imprime es justamente la superficie de la madera (no los surcos), es necesario realizar una imagen en negativo y que además esté invertida, pues de nuevo se invertirá durante la estampación (v. fig. 1).

Image and video hosting by TinyPic
Figura  1 Corte láser aplicado al grabado en relieve. A la izquierda el archivo digital; en el centro la plancha de madera grabada con láser a partir del archivo; a la derecha la estampa resultante

En el caso del grabado en hueco, resulta complejo trabajar sobre metal, que es el soporte tradicional, pues las impresoras de corte láser convencionales son incapaces de horadar significativamente una plancha de cobre o de cinc. Sin embargo, existe toda una gama de materiales plásticos de alta dureza que pueden utilizarse perfectamente para el entintado en hueco. Para su formalización, es necesario producir un archivo digital en el que la imagen deberá también estar invertida, pero en este caso, los signos aparecerán positivos. Las imágenes y las tonalidades se resuelven mediante tramado, mientras que las líneas se entallan directamente, como en el tradicional aguafuerte o buril (v. fig. 2). También existe la posibilidad de programar cortes completos, lo que permite fabricar planchas con cualquier forma (v. fig. 3).

Image and video hosting by TinyPic
Figura  2 Corte láser aplicado al grabado en hueco. A la izquierda el archivo digital; en el centro una plancha de material plástico doble capa grabada con láser a partir del archivo; a la derecha la estampa resultante

 

Image and video hosting by TinyPic
Figura  3 Plancha de material plástico doble capa grabada y recortada con forma irregular con la tecnología del corte láser

Las posibilidades que ofrece este medio para trasladar imágenes fotográficas manipuladas con el ordenador, junto a otro tipo de gráficos, dibujos vectoriales, tipografía, hacen de este sistema un campo de experimentación con grandes posibilidades, y aun bastante inexplorado, que puede llegar a expandir el concepto de lo que hoy entendemos como grabado. La tecnología digital resulta tanto una original manera de concebir y crear obras, como un modo de re-examinar los procesos gráficos y ofrecer nuevos enfoques en los tradicionales procesos de grabado.

 

Bibliografía

BALL, Philip (2003), La invención del color, Turner, Madrid – México, Fondo de cultura económica.

CHERIX, Christophe y at. (2012), Print/Out. 20 Years in Print, Nueva York, The Museum of Modern Art.

COLDWELL, Paul (2010), Printmaking. A contemporary Perspective, Londres, Black Dog Publishing.

SOLER, Ana y CASTRO, José Antonio (2013), Ánodo Cátodo. Electrólisis y galvanoplástica. La memoria química esculpida por electrones, Universidad de Vigo.

Extensión del modelo TAM al análisis de requisitos de accesibilidad para el aprendizaje del patrimonio artístico del Museo del Prado con dispositivos móviles

Covadonga Rodrigo San Juan
UNED

Marta Caro Martínez
UNED

Ana García Serrano
UNED

Palabras clave: accesibilidad, museología, TAM, dispositivos móviles
Keywords: accessibility, Museology, TAM, mobile devices

1. Introducción

Los museos están intentando promover nuevas formas de comunicación, con el objetivo de difundir la cultura adaptándola a la sociedad digital actual (Hung, 2013: 231). Hay interesantes estudios iniciales para mejorar el diseño de las páginas web de museos que incluyeran actividades dinámicas de aprendizaje que fueran motivantes (Lin, 2006), juegos infantiles de localización de objetos en museos gracias a la tecnología Bluetooth (Nilsson, 2016: 56) o realidad aumentada para dar vida a mapas mudos (Caro-Martínez, 2015: 80–89). Pero el gran reto de la Museología del Siglo XXI es la atención e integración de los sectores sociales más desfavorecidos y desvinculados con los museos, teniendo en cuenta cuáles son sus necesidades y cómo se relacionan con las tecnologías para descubrir cómo mejorar su experiencia en el museo. El trabajo aquí presentado muestra los resultados obtenidos tras la aplicación de un modelo TAM (Technology Acceptance Model) (Davis, 1989) extendido con criterios de accesibilidad en la elaboración de una encuesta enfocada a recoger los intereses de los potenciales usuarios con discapacidad y determinar la facilidad de uso y la percepción de utilidad de la tecnología que se quiera utilizar.

2. El consorcio MUSACCES

El proyecto MUSACCES propone acciones de museología e integración social en un entorno de trabajo interdisciplinar, buscando acercar el Museo del Prado a colectivos de especial accesibilidad (invidentes, sordos y reclusos) con apoyo de las Tecnologías de la Información y la Comunicación.

En relación a las personas sin visión o visión reducida, éstas tienen serias dificultades para disfrutar de la experiencia artística visual. La percepción visual puede ser sustituida con la participación activa de la experiencia artística mediante el resto de sentidos (tocando representaciones volumétricas de obras de arte, oliendo aromas que evoquen lo plasmado en los cuadros…).

Aun sin tener problemas de accesibilidad a la contemplación directa de las obras pictóricas o escultóricas, las personas que no pueden escuchar sonidos con claridad pueden aprovechar recursos didácticos no sonoros que ayuden a apreciar con mayor detalle la relevancia de dichas obras en su ambiente cultural.

Realización del Estudio Cualitativo basado en TAM

La investigación aquí presentada pretende analizar las percepciones de las personas con discapacidad hacia el uso de determinadas TIC para el diseño y desarrollo de los itinerarios formativos accesibles e interactivos dentro y fuera del Museo del Prado. El estudio cualitativo se ha llevado a cabo mediante la recogida de datos a través de un cuestionario ad hoc, que analiza los intereses de las personas con discapacidad en relación al contenido artístico del museo, incluyendo una serie de preguntas específicas acerca del uso de la tecnología en este contexto conforme al modelo TAM.

La encuesta está organizada en tres diferentes secciones: preguntas de interés cultural y artístico, cuestiones sobre el perfil socio-económico del encuestado y preguntas sobre la facilidad de uso, eficiencia y utilidad de las tecnologías integradas en los dispositivos móviles según el modelo TAM como se detalla en los análisis previos más adelante en este artículo.

Se ha comprobado la validez de contenido mediante un juicio de expertos (psicólogos y sociólogos), cuyas evaluaciones han mostrado que la mayoría de los ítems eran correctos y adecuados en comprensión y escritura para los destinatarios del cuestionario.

Para la cumplimentación del cuestionario por la muestra, se tuvo en cuenta que los encuestados tenían acceso preferente y confidencial a través de Internet por lo que se cumplimentó en la plataforma LimeSurvey con alto grado de accesibilidad. La encuesta ha sido lanzada a la comunidad de estudiantes con diversidad funcional de la UNED en diciembre 2016 y habiéndose recolectado 278 respuestas. Para el análisis de datos, se ha utilizado el programa estadístico IBM SPSS.

3. Análisis previo de los resultados

La población objeto de estudio está compuesta por 6.571 estudiantes con discapacidad de la UNED, habiéndose recibido un total de 278 respuestas válidas, un 55.8% contestado por mujeres y un 44,2% por hombres, con una media de edad de 44 años, con 34,5 % alcanzado el nivel de Grado o Licenciatura equivalente. Respecto al grado de discapacidad, un 26,3% tiene una discapacidad reconocida de más del 65%, mientras que un 65,1% posee un grado entre 33% y 65%. De todos ellos, un 36,6% necesita utilizar algún tipo de producto de apoyo en su vida diaria para acceder a las TICs.

Los primeros análisis de resultados muestran las siguientes características según los factores escogidos:

  • Factor 1. Generalización en el uso de dispositivos móviles en el colectivo de personas con discapacidad (a través de cuestiones sobre utilización y frecuencia de móviles – smartphones- y tabletas, su facilidad de uso y su eficiencia).

Los datos recogidos refutan otros estudios realizados en España en el sentido que el 92,1% de los encuestados confirma utilizar un Smartphone, o móvil de última generación y la mitad de ellos, un 51,1%, utiliza además una tableta digital de forma habitual conectándose diariamente a Internet (60,4% de los casos) y con cierta frecuencia (29,1%). Los datos obtenidos refrendan que además de ser dispositivos fáciles de utilizar, resultan muy eficientes para la vida diaria (92,8% smartphones, 74,8% tabletas).

  • Factor 2. Implicaciones de las TIC para la facilidad en la conectividad y la formación de comunidades de usuarios (a través de cuestiones sobre facilidad de uso y eficiencia de conexión a Internet con datos, tecnología NFC, Bluetooth, bucle magnético).

Un gran porcentaje de usuarios confirma que los dispositivos móviles resultan fáciles (51,8% smartphones, 45,3% tabletas) o muy fáciles de usar (36% smartphones, 29,9% tabletas), siempre superando unos puntos porcentuales los teléfonos respecto de las tabletas. En cuanto a la tecnología Bluetooth, ésta resulta ser la más fácil de usar según un 60,8% de la muestra, la tecnología NFC según el 25,5%, y el bucle magnético según el 9,8%, lógico ya que esta última tecnología que es propia de las personas con déficit auditivo que acoplan sus audífonos para tener un sonido de mayor calidad y volumen. De igual manera, las respuestas alcanzan porcentajes similares en cuanto a su utilidad.

  • Factor 3. Actitud hacia el uso de materiales multimedia y audiovisuales para el acompañamiento explicativo en el museo (cuestiones relativas a la navegación en páginas web de museos, uso de audio-guías, video-guías e incluso de guía turístico personal)

La percepción de la utilidad de las audio-guías y video-guías (45,3%, 34,5%) es mayor que su facilidad de uso (43,5%, 29,2%), resultando lógicamente las primeras más asequibles por estar también más generalizado su uso. En cualquier caso, la muestra

  • Factor 4. Actitud hacia la inclusión a través de la TIC de actividades de gamificación (1 ítem: realidad aumentada)

Un 19,8% de la muestra consideran que la realidad aumentada es fácil de manejar, sin embargo su uso es muy escaso ya que más de un 70% de la muestra reconocen no haber usado nunca una app móvil con esta tecnología. Es curioso hacer notar que las personas que utilizan productos de apoyo por necesidad valoran más esta tecnología y la consideran más fácil de utilizar que aquellas que no tienen limitaciones especiales de acceso a la tecnología en general.

  • Factor 5. Actitud de las personas con discapacidad hacia los recorridos virtuales (preguntas sobre uso de recorridos virtuales en páginas web o en museo y realidad virtual)

Aproximadamente ¾ de los encuestados no hay recorrido virtualmente ningún museo, si bien hay un alto porcentaje de visitas a las páginas web de los museos y sus colecciones, constatando que un 56,9% de los encuestados han visitado la página web del Museo del Prado. Curiosamente, las personas con discapacidad auditiva presentan menos interés en este tipo de visitas que las personas con discapacidad visual, que acceden mediante revisores de pantalla.

4. Conclusiones

Los primeros análisis refutan la facilidad de uso y la eficiencia que los dispositivos móviles proporcionan a las personas con discapacidad y lo extensivo que está en dicho colectivo la utilización de tecnologías inalámbricas y de conectividad total (Bluetooth, NFC, GPRS) lo que proporciona buenos datos que animan a la incorporación de estas tecnologías a los itinerarios accesibles para fomentar la interactividad y navegabilidad dentro del diseño de las actividades formativas sobre el patrimonio artístico, así como el nivel de facilidad de uso expresado sobre técnicas que se pueden utilizar como fuente de gamificación (la realidad aumentada). Sin embargo, y aunque el colectivo expresa un gran interés por los recorridos «virtuales» de forma global, es necesario profundizar en la diferencia existente entre recorridos virtuales, realidad virtual, etc., para aclarar mejor los conceptos a los usuarios y poder recabar mejor su percepción sobre ellos.

Financiación

Se agradece la financiación recibida del proyecto MUSACCES – S2015/HUM-3494 y el soporte de la Cátedra de Tecnología y Accesibilidad UNED – Fundación Vodafone España.

 

Bibliografía

CARO-MARTÍNEZ, M., HERNANDO-HERNÁNDEZ, D., & JIMÉNEZ DÍAZ, G. (2015), «RACMA o cómo dar vida a un mapa mudo en el Museo de América», Proceedings 2nd Congreso de la Sociedad Española para las Ciencias del Videojuego, June 24, 2015, vol. 1394, Barcelona, Spain, pp. 80–89.

HUNG, S. Y., CHEN, C. C., HUNG, H. M., & HO, W. W. (2013), «Critical factors predicting the acceptance of digital museums: User and system perspectives», Journal of Electronic Commerce Research, 14(3), p. 231.

LIN, A. C., & GREGOR, S. D. (2006), «Designing Websites for Learning and Enjoyment: A study of museum experiences», The International Review of Research in Open and Distributed Learning, 7(3).

NILSSON, T., HOGSDEN, C., PERERA, C., AGHAEE, S., SCRUTON, D. J., LUND, A., & BLACKWELL, A. F. (2016), «Applying Seamful Design in Location-Based Mobile Museum Applications», ACM Transactions on Multimedia Computing, Communications, and Applications (TOMM), 12(4), p. 56.

Pensar las prácticas docentes y de investigación desde las Humanidades Digitales: el caso del Área de Historia de la Educación de la Facultad de Ciencias de la Educación de la Universidad Nacional del Comahue

Fabiana Andrea Pérez
Universidad Nacional de Comahue

Palabras clave: Educación, Investigación, Humanidades Digitales, Historia Digital
Keywords: Education, Research, Digital Humanities, Digital History

Este póster pretende describir la experiencia de transformación realizada por el Área de Historia de la Educación de la Facultad de Ciencias de la Educación – Universidad Nacional del Comahue (Patagonia, Argentina) en cuanto a sus prácticas docentes y de investigación, desde las perspectivas de las Humanidades Digitales.

El Área de Historia de la Educación está integrada por once docentes distribuidos en los diferentes equipos de cátedra de las carreras de grado del Profesorado en Ciencias de la Educación, Licenciatura en Ciencias de la Educación, Profesorado en Nivel Inicial y Profesorado en Enseñanza Primaria. El mismo personal docente conforma, además, un grupo de Investigación de amplia trayectoria en Historia de la Educación de la Región.

En el año 2015, y en el contexto de renovación de parte del plantel docente del área, como equipo nos planteamos la necesidad de reflexionar críticamente sobre nuestras prácticas de investigación y docencia, teniendo en cuanta los cambios epistémicos y cognitivos provocados por las nuevas formas de producción y socialización del conocimiento en la llamada cultura digital. Emprendimos entonces un proceso de redefinición de la forma de trabajar con las humanidades desde la innovación y la tecnología, influidos por el acercamiento y la formación que parte de los integrantes del grupo tenían con las Humanidades Digitales, fundamentalmente a través de diversas actividades realizadas por la Asociación Argentina de Humanidades Digitales.

En la dimensión docente, las decisiones que guiaron el proceso de cambio que estamos realizando tuvieron que ver con:

  • Proponer alternativas al modelo tradicional de enseñanza/aprendizaje, centrado en el profesor;
  • Pensar, organizar y producir los contenidos de las asignaturas incorporando otras dimensiones sensoriales, más allá del texto escrito.
  • Integrar herramientas tecnológicas digitales que se relacionen no solo con el aprendizaje de los contenidos específicos, sino también con la adquisición de competencias digitales por parte de docentes y estudiantes.
  • En la dimensión de la investigación, las transformaciones se relacionaron con:
  • Incorporar herramientas digitales a nuestras tareas de investigación para gestionar la información, producir conocimiento y difundir los resultados.
  • Refundar nuestro rol de investigadores desde el paradigma de la Ciencia Abierta, repensando la universidad como territorio abierto donde el conocimiento construido renueva los lazos con la ciudadanía.
  • Participar en Redes y Comunidades de Práctica de Investigadores como forma de socialización y difusión de la producción científica, pero también como forma de incrementar el trabajo interdisciplinar y colaborativo.
  • Replantear las formas de derecho de autor y los circuitos de reconocimiento académico.

Por último, resulta importante señalar que la decisión de incorporar las perspectivas de las Humanidades Digitales a nuestras prácticas de docencia e investigación corrió exclusivamente por parte del Área de Historia de la Educación, ya que ni en la Facultad ni en la Universidad se cuenta con espacios o iniciativas institucionales formales que incursionen en proyectos similares. De allí la necesidad que hemos tenido, como Área, de visibilizar nuestra tarea en diferentes ámbitos institucionales a través de la realización de cursos, seminarios y clases abiertas sobre estos temas.

Consideramos que más allá de los resultados de nuestras prácticas formales de docencia e investigación, medibles de la forma tradicional en el ámbito universitario, el balance de lo realizado hasta aquí por el Área nos llena de satisfacción, pudiendo sintetizarse en las palabras de Nuria Rodríguez Ortega: «el compromiso de las Humanidades Digitales y, por ende, del humanista digital no se establece con el desarrollo tecnológico, sino con el Hombre, materializando así una vuelta a la esencia del Humanismo».

Las Humanidades Digitales como una plataforma de aprendizaje para enseñar entre España y Latinoamérica

Elena González-Blanco
LINHD-UNED

Gimena del Rio Riande
Secrit-Conicet

La creación del primer laboratorio de Innovación en Humanidades Digitales en España (LINHD) <www.linhd.es> en la Universidad Nacional de Educación a Distancia (UNED) en 2014 ha abrió nuevas oportunidades a la creación de títulos, cursos, y certificados formativos en Humanidades Digitales para el mundo hispanohablante.

Mientras que el cambio digital y la interdisciplinariedad en las Humanidades apenas se comienza a aplicar en la mayoría de las enseñanzas humanísticas de las universidades públicas españolas, LINHD ha invertido tiempo y energía en la creación de una formación innovadora orientada a las Humanidades Digitales y ofrecida en su mayoría como una educación online complementaria a la que se oferta en las titulaciones reglamentarias. Nuestra presentación ofrecerá una visión general de las tres iniciativas principales: cursos y seminarios independientes, dos cursos largos especializados en HD básicas y edición digitales y una escuela anual de verano. Todas estas iniciativas han impulsado el nacimiento de esta disciplina en el mundo hispanohablante, generando, a su vez, nuevos materiales en HD (en español y adaptados a diversos perfiles de Humanidades de estudiantes hispanohablantes), que suponen a su vez el planteamiento de nuevos retos para las Humanidades Digitales como una disciplina para la cual la formación online ha probado ser una forma exitosa de acercarla a personas de distintos lugares y países.

LINHD lanzó su primera escuela de verano de Humanidades Digitales: Introducción a las Humanidades Digitales en julio de 2014 y atrajo a más de 50 estudiantes. La escuela de verano dio como resultado un programa más consolidado de 30 créditos desde diciembre a septiembre que amplificó todos los contenidos que habían sido antes impartidos en esta escuela.  La estrategia ha sido similar en los años siguientes. En 2015 la escuela de verano se dedicó especialmente a la edición digital y posteriormente, se lanzó un nuevo programa de formación de invierno más largo para los cursos 2015-2016. El año pasado, por otra parte, decidimos centrarnos en las metodologías de las Humanidades Digitales aplicadas a un campo más específico: la poesía; que tuvo como resultado una escuela de verano de alta calidad sobre este tema y que está en el centro de proyectos e intereses de investigación del LINHD. Teniendo en cuenta los intereses de la comunidad, las necesidades del campo y las ofertas de nuevos programas en lugares diferentes, hemos incorporado al conjunto dos nuevas propuestas: un curso que comenzó en enero de 2017 de estilometría y análisis de textos basado en patrones estadísticos usando R y un curso más breve de introducción a las aplicaciones móviles para humanidades

Nuestra estrategia para el diseño curricular para todos estos programas ha sido doble: en primer lugar, siempre hemos tenido como modelo los currículums para Humanidades Digitales mencionados anteriormente, junto con las necesidades de los académicos en nuestro propio entorno. Las claves para el éxito han sido tres: tener una forma de docencia interdisciplinar para las Humanidades Digitales, ofrecer variedad de los contenidos (nuestro primer curso de Humanidades Digitales abarcó una amplia gama de temas que van desde las bases de datos o el marcado con TEI , hasta la web semántica y la visualización de bibliotecas digitales) y tener como norma la flexibilidad, que nos permite cambiar gracias a las lecciones aprendidas cada año mejorando los conenidos en función de las necesidades del alumnado.

Los desafíos a los que nos enfrentamos y por los que todavía estamos preocupados pueden resumirse de la siguiente manera:

  1. «Equipos docentes». Reúne a académicos de dentro y fuera de la UNED, con el fin de poder ofrecer el conjunto de conocimientos y habilidades consideradas como núcleo en una formación DH.
  2. «Creación de los materiales». Por un lado, los materiales deben estar escritos en español; por otro lado, la mayor parte de la documentación «técnica» no tiene una perspectiva de Humanidades Digitales (Por ejemplo, PHP, bases de datos MySQL, etc.). Este es un punto muy importante, ya que aunque hay una gran cantidad de materiales de acceso abierto en la web en formación de HD, no ha sido suficiente para nosotros traducirlos. Ha sido necesario volver a crear los problemas, adaptar los materiales existentes a nuestras propias necesidades y ejemplos (nuestras bibliotecas, nuestros proyectos), y también reagrupar las diferentes claves sobre una historia de las HD aún no consolidada en español.
  3. Enseñar un campo eminentemente «práctico» a través de un método a «distancia y basado en el aprendizaje virtual» (mediante una plataforma de e-learning que ofrece diferentes herramientas, como foros, salas de chat o cuestionarios autocorregibles). Este ha sido uno de nuestros principales pilares en el que estamos orgullosos de presentar nuestro producto más innovador en el mundo de las Humanidades Digitales: la enseñanza en línea ha demostrado ser el presente y el futuro de la educación, pero aún no se ha extendido al campo de las HD (aunque el proyecto DariahTeach mediante la creación de una plataforma de acceso abierto para enseñanza en HD promete excelentes perspectivas). Esta forma de enseñanza implica, sin embargo, una producción especializada de materiales didácticos y también una formación específica de los profesores, ya que tienen que crear diapositivas, vídeos, materiales escritos y pruebas y exámenes a quienes deben ofrecer ayuda interactiva y soluciones prácticas. Aunque esto puede parecer una carga de trabajo adicional para nuestros profesores, la experiencia muestra que todos estos esfuerzos se materializan en contenidos digitales grabados en las distintas sesiones de nuestros cursos (es conveniente echar un vistazo a nuestras bibliotecas de nuestro canal de YouTube), a los que agregamos un acceso abierto para todo nuestro público.
  4. «Hacer visible» la formación en dentro del mundo hispanohablante. Este es un punto importante para nosotros, no solo como una manera de conseguir más estudiantes, sino también como una forma de abrir el camino para consolidar las Humanidades Digitales como una disciplina académica. Dado que nuestra estructura académica es bastante reacia a la interdisciplinariedad, tenemos que utilizar las redes sociales y otros canales de difusión para ir más allá de las barreras y llegar a nuestro público fuera de nuestra universidad. El resultado de ello es un grupo mixto de estudiantes procedentes de diferentes partes de nuestro país y de ostros países del mundo. El desafío: identificar las maneras de llegar a todos estos grupos potencialmente interesados. Trabajamos en colaboración con académicos de Argentina, México, Colombia y otras universidades y tratamos de ampliar nuestra visibilidad cada día.
  5. Prepararse para «crear oportunidades en el mercado de trabajo». Este es un tema muy desafiante, ya que el mercado muestra claramente las necesidades de experiencia en Humanidades Digitales, como vemos continuamente en proyectos de investigación, instituciones culturales e incluso escuelas. Identificar estas necesidades y explicarles dónde tienen que buscar a estos especialistas está todavía en un estado muy emergente, debido a la necesidad de capacitación en este nivel intermedio como usuarios de recursos de humanidades que necesitan saber dónde y cómo buscar para concentrar sus problemas en la búsqueda de soluciones más fáciles, baratas y especializadas en nuestros expertos en Humanidades Digitales (mundo que para los Estados Unidos sí que ya encuentra un término en el ámbito del #altAcademy). Ampliar este conocimiento general al campo de las Humanidades radica todavía en un gran reto que debemos superar cada día.

Bibliografía

LINHD DH programas de formación: <http://linhd.es/formacion/ >

BERGMANN, Juliana, «La Universidad en la Nube». En: <http://e-aprendizaje.es/2013/03/18/e-book-la-universidad-en-la-nube/>

CORDELL, Ryan, «How not to teach Digital Humanities 2015». En: <http://ryancordell.org/teaching/how-not-to-teach-digital-humanities/>

KOLLER, Daphne, «What we are learning from distant education», TedX 2012. En::<https://www.ted.com/talks/daphne_koller_what_we_re_learning_from_online_education>

SAHLE, Patrick (2013), «DH studieren! Auf dem Weg zu einem Kern- und Referenzcurriculum der Digital Humanities» DARIAH-DE Working Papers, n.º 1, Göttingen: GOEDOC. En: <http://webdoc.sub.gwdg.de/pub/mon/dariah-de/dwp-2013-1.pdf>

TREJOS, Bernardo (2013), «A Pedagogy for Cross-cultural Digital Learning Environments» Hybrid Pedagoy. En: <http://www.digitalpedagogylab.com/hybridped/a-pedagogy-for-cross-cultural-digital-learning-environments/>

iArtHis_Lab. Laboratorio de investigación, innovación y formación para el desarrollo de los estudios digitales sobre la cultura artística

Nuria Rodríguez Ortega
Universidad de Málaga

Antonio Cruces Rodríguez
Universidad de Málaga

José Pino Díaz
Universidad de Málaga

Carmen Tenor Polo
Universidad de Málaga

Bárbara Romero Ferrón
Universidad de Málaga

María Ortiz Tello
Universidad de Málaga

Mª Carmen Gómez Torres
Universidad de Málaga

Mª Isabel Hidalgo Urbaneja
Universidad de Glasgow

Palabras clave:  grupo de investigación, Historia del Arte Digital, educación, humanidades digitales
Keywords: Research group, Digital Art History, education, Digital Humanities

El propósito de este póster es presentar a la comunidad de humanistas digitales las actividades desarrolladas por el grupo de investigación iArtHis_Lab de la Universidad de Málaga.

iArtHis_Lab es un laboratorio de investigación, innovación y formación para el desarrollo de los estudios digitales sobre la cultura artística, y en particular para el progreso y consolidación de la Historia del Arte Digital en nuestro país.  Constituido en el año 2013, iArtHis_Lab asume como propio el nuevo paradigma social, epistemológico, cultural y crítico de nuestra contemporaneidad, en el que las barreras entre lo científico-técnico, las artes y las humanidades se difuminan. Así pues, desde su nacimiento, iArtHis_Lab trabaja para integrar este nuevo paradigma en los estudios sobre la cultura artística en general, y de la historia del arte en particular, a fin de buscar unos renovados horizontes críticos y epistemológicos, y también una renovada justificación de nuestra disciplina como agente activo de progreso social, desarrollo intelectual y transformación cultural. Nuestra tarea se despliega a través de las siguientes vertientes de trabajo:

  1. Investigación e innovación: buscamos la aplicación de nuevas metodologías de análisis y el desarrollo de nuevos modelos interpretativos basados en las potencialidades del medio digital, la tecnología informática y el pensamiento computacional.

En este sentido, además,

  1. trabajamos en documentos de recomendaciones que faciliten una adecuación de los procedimientos institucionales y administrativos – relacionados con los procesos de evaluación, acreditación y calificación- a las especificidades y requerimientos propios de los proyectos, investigaciones e iniciativas de base tecnológica y digital;
  2. también trabajamos en la elaboración de protocolos, procedimientos y manuales de buenas prácticas que orienten el diseño, desarrollo y gestión de proyectos digitales en el campo histórico-artístico y cultural;
  3. buscamos promover la adopción de nuevas estrategias de investigación basadas en el conocimiento abierto y compartido, la colaboración, la transdisciplinariedad, la horizontalidad y la convergencia con agentes y colectivos no académicos;
  4. incentivamos y promovemos la creación de redes.
  5. Formación: Trabajamos en el diseño de una oferta formativa destinada a proveer de una formación híbrida y transdisciplinar a los futuros profesionales de la cultura artística y visual, a fin de que estos estén preparados para afrontar los retos de la sociedad del siglo XXI, y dispongan de las herramientas intelectuales y tecnológicas adecuadas para hacer avanzar el conocimiento artístico hacia nuevos horizontes.
  6. Pensamiento crítico: Aspiramos a articular una reflexión crítica sobre el uso de las tecnologías, la producción de contenidos artísticos y la configuración de los nuevos discursos y narrativas digitales, la construcción de la memoria cultural globalizada, la reinvención de las relaciones de poder y las nuevas formas de colonialismo cultural.
  7. Emprendimiento y transferencia: Trabajamos para canalizar los procesos de formación e investigación en el campo de la historia del arte digital hacia modelos de negocio autogestionado, a través de los cuales la formación y la investigación se trasvasen al tejido social y económico de los territorios, favoreciendo la generación de empleo y el progreso de las comunidades.
  8. Disrupción académica:Estamos convencidos de que el sistema académico, tal y como está actualmente configurado y establecido, no responde al nuevo paradigma social, económico, epistemológico y crítico. Por ello, alentamos y participamos en el desarrollo de iniciativas que faciliten el desmontaje de las estructuras establecidas que constriñen el desarrollo académico-universitario más allá de sus propios límites.

En el póster se expondrán los diversos proyectos y sus resultados en los que hemos estado trabajando desde el año 2013, así como las líneas futuras de actuación.

ReArte.Dix, Red Internacional de Estudios Digitales sobre la Cultura Artística

Nuria Rodríguez Ortega
Universidad de Málaga

Antonio Cruces Rodríguez
Universidad de Málaga

José Pino Díaz
Universidad de Málaga

Carmen Tenor Polo
Universidad de Málaga

Bárbara Romero Ferrón
Universidad de Málaga

Palabras clave:  red internacional, estudios digitales, humanidades digitales, educación
Keywords: International Network, digital studies, Digital Humanities, education

El propósito de este póster es presentar a la comunidad de humanistas digitales las actividades desarrolladas por ReArte.Dix, Red Internacional de Estudios Digitales de la Cultura Artística. .

Aunque financiada con fondos del plan propio de la Universidad de Málaga, ReArte.Dix es una red con vocación internacional cuyo objetivo es afrontar de manera colaborativa los retos epistemológicos, metodológicos, interpretativos y críticos que las nuevas condiciones tecno-científicas y socio-culturales de nuestro mundo digital están propiciando en los procesos de análisis, comprensión y recepción de la cultura artística. Asimismo, trabaja para el desarrollo y consolidación de los estudios de Historia del Arte Digital en territorios de habla española.  Su base de actuación se encuentra en la Declaración de Málaga: 

ReArte.Dix se constituyó en junio de 2013 por acuerdo de los participantes del celebrado en Málaga. Una de las conclusiones fundamentales alcanzadas fue la plena asunción de que el factor digital, definidor de nuestra sociedad, conlleva de manera irreversible un cambio de paradigma en los modos de pensar la cultura y el arte, que va más allá de la simple aplicación de tecnologías.  Asimismo, la diversidad de proyectos presentados en las sesiones de trabajo puso de manifiesto la riqueza y versatilidad de las iniciativas ya emprendidas al respecto en España, tanto en el ámbito académico, como en el contexto de las instituciones museísticas o los espacios emergidos directamente en la web.  En este sentido, hay que destacar cómo los procesos digitales asociados a la cultura artística están teniendo un medio principal de desarrollo fuera del ámbito académico, constituyendo una vía alternativa a las investigaciones específicas llevadas a cabo en el marco disciplinar de la Historia del Arte, de cuya convergencia podrán aflorar resultados decisivos.

Así pues, desde su constitución ReArte.Dix trabaja fundamentalmente en la organización de cursos formativos, y en la celebración de jornadas y seminarios de reflexión crítica sobre las transformaciones disciplinares y culturales que el paradigma digital está operando. Sus integrantes también participan en proyectos conjuntos que se inscriben en el marco de las Humanidades Digitales y, más concretamente, en la denominada Historia del Arte Digital.  A su vez, ReArte.Dix fomenta las acciones de frontera, donde museos, academia, artistas y ciudadanía cooperan conjuntamente en la producción de un conocimiento significativo para todos.

Virtual archaeology through social networks. The case of the I Public Archaeology Twitter Conference

Lara Delgado-Anés
Universidad de Granada

Pablo Romero-Pellitero
Universidad de Granada

Lorna-Jane Richardson
Umeå Universitet

Palabras clave: Arqueología Virtual, redes sociales, arqueología pública, communication
Keywords: Virtual Archaeology, social networks, Public Archaeology, comunicación

  1. Introduction

New forms of communication on the Internet have emerged since the late 20th century, which offer more opportunities for user participation and creation. Participatory technologies, or «Web 2.0», offer an abundant variety of platforms and digital tools to the general public (VVAA, 2011). Social networks have been developed from the use of these technologies, creating structures which facilitate information sharing and communities. The use of these technologies have grown exponentially, and are now deeply embedded in the landscape of 21st century communication, across all sectors of the population.

These social platforms offer the opportunity for academics to have a more interactive and two-way communication with the wider public. These can be very useful tool for public engagement. The use of online social networks allows institutions to communicate faster than traditional print media, and attract a wider audience. They allow us to work transparently, provide more access to our research within the sector, to our colleagues, as well as support knowledge exchange with local communities, to inform and involve to them in the work we undertake (Delgado, 2017: 158).

Society has reached a high level of connectivity and communication, so we can perhaps achieve greater impact if we apply these digital advances to archaeology, generating resources for the communication of heritage, and offering new opportunities for participation by the public. This work focuses mainly on the discipline of «Virtual Archaeology». The fundamentals of this field were established in the Principles of Seville of 2011. In this document, Virtual Archaeology is defined as «the scientific discipline that seeks to research and develop ways of using computer-based visualisation for the comprehensive management of archaeological heritage» (Principles of Seville, 2011:3).

  1. Public Archaeological Twitter Conference

An example of the use of these participatory technologies in science communication is the first Public Archaeology Twitter Conference[1], which took place on 28 April 2017. The online conference had 50 presentations, with representations from 8 different countries, and a mixture of academics, field archaeologists, heritage education specialists and community archaeology project participants. The conference format allowed participants to present a paper through 6-12 tweets of 140 characters, over a 15 minutes time slot, and the tweets could include images, maps, films and photographs as well. This kind of initiative is not frequent in the humanities field – Twitter conferences have taken place on twice before, both in 2016, in the field of ornithology and neurology. The aim of the Public Archaeology Twitter Conference was the promotion of diversity and inclusiveness of all researchers, as well access to information from the general public. Many people cannot afford to attend formal academic conferences, or have family responsibilities or disabilities which make conference attendance impossible, or are simply financially unable to afford the growing cost of conference fees. Initiatives such as the online Twitter conference format offers alternative methods of breaking down the many barriers that are implied by formal academic conferences in a closed space, where usually only specialized participants attend, speak and hold debate.

This conference format allows us to instantly share digital content such as videos, images, gifs and links. It facilitates an immediate form of communication without the participants needing to be physically present, saving time and money. The ability of the conference to be published immediately means that temporal and geographical restrictions no longer apply – the papers and discussions can be followed live, or alternatively after the event, through the use of the searchable hashtag #PATC1. The conference format allows anyone following the conference to access and interact directly with the speaker and the content published, as well as extending the network reach of the material, through retweeting, commenting and reposting Twitter content in other platforms, such as Facebook or in blog posts.

There were a couple of participants from Spain, one of which is presented here, and is related to the use of the archaeological register in 3D from the Pago del Jarafí archaeological excavation, located in Lanteira (Granada, Spain), and the accompanying outreach through social media networks. The #PATC1 paper presented was titled «Virtual Archaeology: from the archaeological record to the social network. 3D as a tool of communication for the public». This work was a development from the framework of the European project from the FP7 program, its MEditerranean MOuntainous Landscapes (MEMOLA)[2].

  1. The case of MEMOLA project

In the MEMOLA project, we use seven social networks to publish the information and activities from the project in their study areas. These are useful tools with which we communicate with users interested in the project, and allows us to get them involved in our fieldwork.

We use social networks as information and meeting points about the project, where the public can find out more about the activities, results of our research, and the work’s methodology in the archaeological interventions. For us, it is also important to share the information gathered during the excavation, as well as to bring archaeology closer to the general public, and make our work more transparent. This is possible through an excavation methodology based on the archaeological record, using 3D photogrammetry (v. fig. 2). The process for three-dimensional representation of the archaeological finds aspires to a greater degree of interaction and knowledge on the part of wider society, bringing participants closer, in a specific way, to the principles of archaeological research, through more democratic and interactive means.

In the specific case of the three-dimensional archaeological models, we use Sketchfab[3], a social network based on 3D models, to publish this data from the archaeological excavation at Pago del Jarafí (Lanteira, Granada). Afterwards, these models are shared in the others official MEMOLA profiles on Facebook or Twitter, as well as on the MEMOLA website. In relation to Sketchfab, we started using on 3 March 2015. Currently (July 2017) we have 145 followers, 16 models and 3.000 views. (v. Fig.1) This work has allowed us to raise the MEMOLA profile to sixth place in the category of scientific organizations. We think that this social network is the most useful with which to present this type of information. Sketchfab offers great possibilities to share information, either through their website, embedded directly on our website, or through our social networks, etc. It also offers the ability to perform these tasks without the need to develop your own tools for each model. All this makes it the most outstanding 3D social network in the field of heritage[4] at present.

Image and video hosting by TinyPic
Figure 1 MEMOLA project profile on Sketchfab

Image and video hosting by TinyPic
Figure 2 Tweet 5 #PATC «Stratigraphic sequence of a burial in a silo»

When the authors heard about the call for papers for the Public Archaeology Twitter Conference, we thought it was a great opportunity to present our digital archaeological work and our MEMOLA profile developed on Sketchfab. This type of conference, realised through the use of digital social platforms allows us to present these innovations, making it easier for the public to interact with our 3D models. Our #PATC1 presentation was a thread of 12 tweets. During the Public Archaeology Twitter Conference we received 73 likes, 28 shares and a few comments during our presentation, which continued over the subsequent two months, with a total of 8119 visualisations of our 3D models.

We tried to obtain feedback from the conference and Twitter users in relation to one of our 3D models. Our objective was to obtain information on a case of medieval Islamic burial located at the archaeological site Pago del Jarafí, and to find our through the use of «the crowd» if there was any similar cases in another site anywhere else in the world. In this case, unfortunately we didn’t get answer about our specific question (v. fig. 3).

Image and video hosting by TinyPic
Figure 3 Tweet 10 #PATC «Peculiar medieval burial»

In spite of this, the event of #PATC1 allowed us to improve the visualization of our work, increase the number of our followers and connect with other researchers. For example, during the conference, one of the debates which ensued explored the ethics of digital visualisation in a mortuary context (Williams, Atkin, 2015). It was very interesting, because we hadn’t reflected on this issue, so it has helped us to discuss this subject with other scholars and participants in relation to our work.

  1. Conclusions

We are at time when the development of new social platforms and networks allow us to establish and benefit from new models of communication, both social and scientific. This facilitate the development of a conference like the Public Archaeology Twitter Conference, where scientific communication becomes more democratic, accessible, and without the high costs associated with travel to conferences and registration fees. Such initiatives also open the doors to everyone who wants to watch, engage or debate, and is not restricted only to those in an Ivory Tower or who can afford to attend.

The Twitter Conference made it easier than traditional conference formats to present digital information like 3D archaeological models, where people can interact with each model in their own computer, tablet or smartphone at any time during or after the event.

We are sure that this is the beginning of new developments in equitable conference participation, and that there will be more initiatives like this in the fields of Public Archaeology and Virtual Archaeology, as well as in many other disciplines.

Funding

The research leading to these results has received funding from the European Union’s Seventh Framework Programme (FP7/20014-2017) under grant agreement nº613265. MEditerranean MOuntainous LAndscapes: an historical approach to cultural landscapes based on traditional agrosystems. <www.memolaproject.eu>.

 

References

DELGADO ANÉS, Lara (2017), Gestión, comunicación y participación social en los paisajes culturales de Andalucía, Tesis doctoral, Granada, Universidad de Granada.

KANSA, Eric C., KANSA, Sarah W., WATRALL, Ethan (eds.), (2011), «Archaeology 2.0 New approaches to Communication & Collaboration», California, Cotsen Digital Archaeology Press.

Principles of Seville. International Forum Virtual Archaeology. En: <http://smartheritage.com/wp-content/uploads/2015/03/FINAL-DRAFT.pdf> (Fecha de consulta: 08-07-2017)

WILLIAMS, Howard, ATKIN, Alison (2015), «Virtually Dead: Digital Public Mortuary Archaeology», Internet Archaeology, n.º 40.

[1] .

[2] .

[3] .

[4] .

EVI-LINHD, un Entorno Virtual de Investigación para la edición digital Académica

Elena González-Blanco
LINHD-UNED

Salvador Ros
UNED

M Luisa Díez
LINHD-UNED

Gimena del Rio
IIBICRIT-CONICET

Clara Martínez
UNED

Antonio Robles-Gómez
UNED

Agustín Caminero
UNED

Dayana Asimbaya
LINHD

Rafael Pastor
UNED

Álvaro del Olmo
LINHD

Miguel Urízar
LINHD

Llanos Tobarra
UNED

Los estudios actuales sobre las Humanidades Digitales (HD) se encuentran en un proceso de constante expansión, innovación y transformación con el objeto de definir nuevas metodologías, tecnologías y objetos (Rio Riande, 2016a, 2016b).

El desarrollo de la investigación en HD tiene lugar en comunidades de distintos dominios y países, y es difícil trazar una genealogía única para este campo en evolución (Spence y González-Blanco, 2014, Río Riande 2014a, 2014b). Esto ha dado lugar a asociaciones de apoyo a la investigación y la aparición de laboratorios de innovación, entre los que se puede considerar un claro exponente LINHD[1], que proporcionan infraestructuras para el desarrollo de los proyectos, como los Entornos Virtuales de Investigación(EVI).

Debido a que la investigación es cada vez más «global, multipolar y en red» (Llewellyn Smith et al., 2011), los EVI se convierten en objetos centrales para la comunidad de las HD porque facilitan un espacio para desarrollar proyectos de trabajo colaborativo y de carácter interdisciplinar (González-Blanco, 2013), y explotan nuevas formas de almacenamiento y preservación proporcionando métodos para visualizar y compartir la información.

En este póster se presenta EVI-LINHD[2] (Río et al., 2017), el primer entorno de investigación dedicado principalmente a hispano-hablantes[3] e interesados en la edición digital académica.

EVI-LINHD se lanzó en octubre de 2016, y ya es un entorno consolidado con más de doscientos usuarios registrados, además de varios proyectos de investigación en desarrollo.

Los puntos clave de EVI-LINHD son:

  1. El entorno de trabajo colaborativo para el desarrollo completo de un proyecto con recursos de software de código abierto. Cada proyecto es accesible por medio de un subdominio de EVILINHD, propio y específico. Con un único login, se puede trabajar en la nube y acceder a los recursos del proyecto. Se dispone de:
    1. Una aplicación web de marcado de textos – TEIscribe, desarrollada en LINHD – combinada con eXist-db[4] y la plataforma de publicación TEI Processing Model Toolbox[5] (ahora conocida como TEI Publisher).
    2. La plataforma de publicación web Omeka[6] para crear colecciones digitales.
    3. El sistema de gestión de contenidos WordPress[7] para crear páginas web.
  1. El repositorio de metadatos, configurado según el modelo de LINDAT/CLARIN (Mišutka et al., 2015), en el que los proyectos se identifican mediante una URI[8] y se almacenan con sus metadatos que pueden ser visualizados y compartidos. El perfil de metadatos de EVI-LINHD, basado en el perfil propuesto para el repositorio, cuenta con metadatos propios para describir los proyectos y para clasificarlos en el ámbito de las HD usando los vocabularios de TaDiRAH[9].

EVI-LINHD ha sido concebido de acuerdo con los estándares de las Humanidades Digitales y herramientas de código abierto.

Bibliografía

GONZÁLEZ-BLANCO GARCÍA, E. (2013), «Actualidad de las Humanidades Digitales y un ejemplo de ensamblaje poético en la red: ReMetCa», Cuadernos Hispanoamericanos, n.º 761, pp. 53-67.

LLEWELLYN SMITH, C., BORYSIEWICZ, L., CASSELTON, L., CONWAY, G., HASSAN, M., LEACH, M. et al (2011), Knowledge, Networks and Nations: Global Scientific Collaboration in the 21st Century, London, The Royal Society.

MISUTKA, J., KAMRAN, A., KOSARKO, O., JOSIFKO, M., RAMASAMY, L., STRANAK, P., and HAJIC, J. (2015), «Linguistic Digital Repository based on DSpace 5.2.», LINDAT/CLARIN Digital Library at Institute of Formal and Applied Linguistics, Charles University in Prague. En: .

RÍO RIANDE, G. del (2014a), «¿De qué hablamos cuando hablamos de Humanidades Digitales?», Abstracts of the AAHD Conference. Culturas, Tecnologías, Saberes, Buenos Aires, Argentina.  En: (Fecha de consulta: 28-04-2017).

RÍO RIANDE, G. del (2014b), «¿De qué hablamos cuando hablamos de Humanidades Digitales?». En: (Fecha de consulta: 28-04-2017).

RÍO, G., GONZÁLEZ-BLANCO, E., MARTÍNEZ, C., ROS, S., ROBLES, A., PASTOR, R., DÍEZ, M., CAMINERO, A.,URIZAR, M., OLMO, A. (2017),  «EVI-LINHD, a virtual research environment for the Spanish-speaking community», Digital Scholarship in the Humanities.

SPENCE, P. and GONZÁLEZ-BLANCO, E. (2014), «A historical perspective on the digital humanities», Spain, H-Soz-Kult. En: (Fecha de consulta: 28-10-2015).

[1] Laboratorio de Innovación en Humanidades Digitales (LINHD): .

[2] EVI-LINHD acrónimo de Entorno Virtual de Investigación del Laboratorio de Innovación en Humanidades Digitales. .

[3] Actualmente, también disponible para anglo-parlantes.

[4] .

[5].

[6] .

[7] .

[8] Uniform resource identifier.

[9]Taxonomy of Digital Research Activities in the Humanities .

La construcción del conocimiento sinológico en Francia a través de un enfoque genético y virtual

Mª Elena Curbelo-Tavio
IATEXT/ULPGC

Xavier Lee
ULPGC

Verónica C. Trujillo-González
IATEXT/ULPGC

Richard Walter
ITEM-CNRS/ENS

Palabras claves: Sinología, Omeka, genética textual, lexicografía.
Key words: Sinology, Omeka, Textual Genetics, Lexicography

La construcción del conocimiento sinológico en Europa se realizó en diferentes etapas, desde las tempranas crónicas de Marco Polo al desarrollo de la sinología científica en el siglo XIX, pasando por la labor misionera que elaboró numerosas obras de carácter pedagógico.

En el siglo XIX, Francia destaca por ser el primer país europeo en tener una cátedra dedicada a los estudios sinológicos, lo que fomentó que se modificara la manera en que se abordaba el análisis y estudio de la lengua china. Así pues, gracias a los trabajos pioneros de Abel-Rémusat, la aproximación a esta lengua comenzó a realizarse de acuerdo con su propia idiosincrasia y no desde los modelos latinos, aplicados durante siglos por los europeos.

La creación de la cátedra de la lengua china, trajo consigo, además, que se estableciera, casi de manera natural, una separación entre las publicaciones misioneras y las realizadas por los académicos. Esta división, que parte del supuesto de que ambas publicaciones tienen fines distintos, unos religiosos y otros simplemente formativos, ha marcado desde hace décadas una frontera invisible, pero muy sólida, en la manera en que se aborda el estudio y clasificación de estas obras.

Nuestra hipótesis de trabajo consiste en demostrar que dicha división, aunque cierta, no es tan tajante y que la construcción del conocimiento sinológico en Francia no habría podido desarrollarse de la misma manera sin la necesaria participación, tanto de misioneros como de académicos.

Así pues, creemos que es posible mostrar parte de estas interrelaciones entre unas obras y otras a través, entre otros, de la elaboración de una biblioteca virtual. Nuestro trabajo, que todavía se encuentra en las primeras fases de elaboración, tiene como finalidad, compilar en un mismo espacio los principales recursos que han contribuido al aprendizaje de la lengua china en Francia, en particular, aquellas gramáticas y diccionarios publicados en el siglo XIX.

Desde el punto de vista técnico, creemos que la mejor opción para ello es la utilización de la plataforma de gestión de contenido Omeka, así como el uso del Dublin Core para la estructuración de los metadatos.

La selección, compilación, catalogación y análisis de estas obras desde la perspectiva de la genética textual, nos permitirá, además, no solo presentar un producto – una biblioteca virtual – que obedezca a los estándares de la web semántica, en términos de interoperabilidad, indexación y estandarización de los metadatos, de acuerdo con los estándares internacionales (W3C), sino también trazar los pasos, la génesis, de la construcción del conocimiento sinológico en Francia.

RIMA: un entorno web colaborativo para la enseñanza e investigación en Historia del Arte

Luis Arciniega García
Universitat de València

Jorge Sebastián Lozano
Universitat de València

Palabras clave: historia del arte, patrimonio cultural, aprendizaje en línea, espacios colaborativos
Keywords: art history, cultural heritage, online learning, collaborative spaces

En el curso 2007-2008 se puso en marcha un recurso digital centrado en la producción y difusión de contenidos sobre el patrimonio histórico artístico y su recepción. Titulado inicialmente ECREHA (Espacio Colaborativo de Recursos Educativos de Historia del Arte), nació en el seno del Departamento de Historia del Arte de la Universitat de València. Aunque en su forma primigenia se concibió como un espacio digital de materiales docentes, dirigido solo para profesores, pronto se comprendió que su potencial permitía ofrecerlo también como una herramienta de aprendizaje para los estudiantes. En esta primera etapa estaba integrado dentro de dotlrn, la plataforma de Aula Virtual empleada en aquel momento por la UV. Así se facilitaba al alumnado el acceso a los materiales y la entrega de sus tareas, dentro del mismo entorno digital docente en el que desarrollaban todas sus demás obligaciones académicas. Esta ganancia en sencillez tenía como contrapunto algunas limitaciones en cuanto a la funcionalidad, pero brindó una primera experiencia sobre las potencialidades prácticas de un recurso de tales características.

En un segundo momento, en 2009, se transformó en el espacio colaborativo MUPART (Memoria y Uso del Pasado a través del ARTe), uno de los recursos del proyecto de investigación y desarrollo Memoria y significado: uso y recepción de los vestigios del pasado (MINECO HAR 2009-13209). Contó también con el reconocimiento y apoyo como proyecto de Innovación Educativa y Calidad Docente, en el curso 2012/13, del Vicerrectorado de Cultura e Igualdad de la Universitat de València). En esta etapa se ubicó en la URL mupart.uv.es, de acuerdo con una filosofía algo diferente a la anterior: software libre, acceso abierto, y sobre todo un planteamiento web 2.0, más bidireccional, horizontal y participativo.

Otro cambio significativo fue la constitución de una red formada por cinco universidades (Universidad Complutense de Madrid, Universidad de Granada, Universidad de Málaga, Universidad de Santiago de Compostela, Universitat de València). El espacio colaborativo se configuró para que profesores y alumnos de historia del arte en las citadas universidades pudiesen usarlo para la entrega de sus trabajos académicos dentro de algunas asignaturas especialmente cercanas a su temática transversal, que era la historia del patrimonio y los cambios en su recepción a lo largo del tiempo. Se planteó un uso libre, pero bajo estrategias que aprovecharan los puntos en común de las diferentes guías docentes para un uso coincidente y/o complementario, que potenciase el intercambio. Como resultado concreto, se subieron centenares trabajos, clasificados en fichas mediante desplegables y campos de texto libre, acompañados a su vez de centenares de comentarios. Para facilitar la evaluación académica se llevó a cabo un seguimiento de los usuarios, sus intervenciones, las actualizaciones a sus trabajos por las sugerencias recibidas, etc. Por otra parte, para realizar una evaluación didáctica de la experiencia se pasó una encuesta, que ofreció valoraciones muy satisfactorias.

Finalmente, desde 2015 el espacio colaborativo se ha convertido en parte del proyecto I+D RIMA , que supone la lógica continuidad del anteriormente citado. A lo largo de todos estos cambios organizativos, su finalidad principal ha sido siempre facilitar el aprendizaje de los estudiantes de grado y posgrado, ofreciendo un entorno en el que depositar sus trabajos académicos (en cumplimiento de las exigencias de diversas asignaturas de sus planes de estudios) y poder consultar los trabajos de otros compañeros o especialistas. En este sentido, viene a llenar un vacío no cubierto por el resto del plan de estudios: el desarrollo de competencias transversales, planteadas como específicas por el Libro Blanco del título de grado de Historia del Arte, tales como el trabajo colaborativo, o la capacidad de emplear rigurosamente las TIC.

El espacio está estructurado a partir de una base de datos multimedia, atendiendo a diversidad de tipologías y formatos: imágenes, audios, vídeos, .doc, .pdf, etc. En este repositorio temático los autores, que no son solamente los alumnos actualmente matriculados, pueden depositar sus publicaciones para su difusión, y el alumnado sus trabajos evaluables de clase. La consulta de los documentos está completamente abierta, pero el comentario de los recursos subidos, o la acción de añadir nuevos, exigen estar registrado. En todos los casos las aportaciones pueden enriquecerse a través de la incorporación de comentarios por parte de los usuarios, que a su vez pueden servir a los autores para actualizar o reelaborar los originales. En algunos casos se han producido pequeños roces, al hilo de valoraciones críticas o de propuestas de mejora, lo cual suele ser también un buen aprendizaje para todas las partes involucradas. Otro aprendizaje negativo es el de autores que, conscientes de las limitaciones de sus documentos, exigen que sean retirados de la web -y, paradójicamente, también de la caché de los buscadores- tan pronto como termina la evaluación de la asignatura.

Este recurso sirve, por un lado, de punto de encuentro a investigaciones de la Historia del Arte, la Arqueología, la Arquitectura, las Bellas Artes y otras áreas afines, estableciendo un foro sobre el uso de los objetos artísticos en épocas posteriores a su creación. Por otro, plantea un proceso de enseñanza-aprendizaje concebido mediante metodologías activas, que fomentan la participación y el pensamiento analítico y crítico. Tal como antes decíamos, este entorno socio-comunicativo contribuye a desarrollar competencias relacionadas con la cultura digital y el manejo de las TIC. Por otra parte, hemos constatado repetidamente que para algunos de los llamados “nativos digitales”, tareas incluso sencillas (manejo de ficheros, por ejemplo) pueden resultar complejas, cuando no se presta atención a las instrucciones y tutoriales que se ponen siempre a su disposición.

Tras 10 años de camino recorrido por este repositorio, esta experiencia docente ha supuesto y sigue suponiendo una herramienta valiosa para enriquecer el proceso de aprendizaje de nuestros estudiantes, y difundir aspectos del patrimonio insuficientemente conocidos. Para muchos alumnos, saber que sus trabajos académicos van a estar libremente disponibles en internet, previa revisión por parte de sus profesores, supone un inesperado aliciente. Hemos constatado una y otra vez cómo muchos huecos existentes, respecto a la información patrimonial de calidad disponible en internet, han sido llenados por los documentos almacenados en el espacio colaborativo. Al ser de acceso abierto e incorporar metadatos y técnicas SEO, los buscadores los indexan libremente, y resulta llamativo ver cómo en búsquedas relativas a no pocos monumentos del patrimonio valenciano, documentos del repositorio aparecen entre los primeros resultados de las búsquedas, lo cual testimonia su creciente popularidad entre los usuarios de la web. De hecho, cronistas locales, así como otros historiadores y especialistas no vinculados con el medio académico han solicitado -y conseguido, por supuesto- difundir algunas de sus investigaciones y publicaciones en el repositorio, al constatar su utilidad para la comunidad interesada por el patrimonio artístico e histórico.

Financiación

Investigación incluida en el Proyecto I+D HAR 2013-48794-P, financiado por el Ministerio de Economía y Competitividad.

Referencias

MUPART, en (Fecha de consulta: 08-07-2017).

RIMA, en http://rima.uv.es/ (Fecha de consulta: 08-07-2017).

Cartografía de la modernidad hispánica: el uso de Nodegoat en la construcción de un entorno digital de investigación

Laura Fólica
Universitat Oberta de Catalunya

Diana Roig Sanz
Universitat Oberta de Catalunya

El objetivo de esta presentación es mostrar la creación y funcionamiento de un entorno de trabajo digital (un Virtual Research Environment) para el proyecto de investigación Cartografía de la modernidad hispánica. Redes literarias transnacionales y mediadores culturales (España-Latinoamérica, 1908-1939) (FFI2016-76055-P) (MapModern, a partir de ahora), financiado por el Ministerio de Economía, Industria y Competitividad de España e iniciado en 2017.

En este proyecto, se estudia el impacto cultural de mediadores españoles y latinoamericanos en la modernidad hispánica de las tres primeras décadas del siglo XX y se los resitúa dentro de una centralidad soslayada hasta el presente. Cabe precisar que este trabajo entiende al «mediador/a cultural» como una figura compleja caracterizada por transgredir las fronteras geográficas, lingüísticas y disciplinarias. Los mediadores son figuras plurilingües, que practican la movilidad (viajes y residencias por motivos personales y laborales, exilios, diásporas o migración); realizan a la vez trabajos intelectuales y/o artísticos (escritura, periodismo, traducción, crítica, edición, docencia o investigación académica, etc.), asumen una responsabilidad social hacia determinadas literaturas y/o culturas de las que se sienten sus representantes y establecen, a través de relaciones formales o informales, redes literarias y culturales con intelectuales y/o artistas de otras culturas (Meylaerts, Sanz Roig, en mimeo). MapModern pretende ser un proyecto piloto que estimule investigaciones futuras sobre los mediadores culturales y sus redes complejas, así como también sobre el solapamiento de funciones en distintos períodos históricos y disciplinas. Para llevar adelante estos objetivos, se sirve de una plataforma digital on-line, «Nodegoat» , desarrollada por la empresa holandesa de Humanidades Digitales Lab1100 , que permite trabajar con una gran cantidad de datos y elaborar complejas visualizaciones, mapas y análisis de redes fundamentalmente.

En la presentación para el Congreso HDH 2017, el objetivo es hacer una demostración de las distintas fases que se han seguido para desarrollar y poner esta plataforma en funcionamiento. En primer lugar, se explicará cómo se ha construido el modelo de datos para describir después el proceso de volcado y clasificación de los mismos. Los datos seleccionados provienen tanto de fuentes digitales (catálogos y enciclopedias online), como impresas en papel (ejemplares de libros, revistas, índices publicados en volumen, correspondencia personal). En segundo lugar, se filtrarán parte de estos datos para su posterior visualización en mapas. En tercer lugar, y a partir de estas visualizaciones, el objetivo es descubrir relaciones no advertidas hasta el momento o nuevos canales de circulación que desde la Literatura Comparada tradicional se habían pasado por alto. En ese sentido, la mirada estará puesta en los mediadores culturales y su producción textual, así como también en el flujo transnacional de intercambio de autores y obras literarias. Por ejemplo, a partir de los datos ingresados sobre la publicación de un género específico en revistas literarias argentinas del periodo estudiado (Sur y Proa), se podrá visualizar el grado de contemporaneidad literaria de estas revistas periódicas que publican en sincronía –o incluso antes que en Europa– artículos de opinión o fragmentos de obras de autores extranjeros.

De este modo, a través de un trabajo que concilia el uso de herramientas digitales y la mirada crítico-interpretativa del especialista en la historia literaria y cultural del primer tercio del siglo XX, se formularán nuevas preguntas que, a través de complejas visualizaciones, puedan cuestionar los lugares tradicionales de centro/periferia respecto de la innovación estética y el consecuente retardo temporal de la llamada «periferia» latinoamericana. En síntesis, se planteará un nuevo modo de interpretar la Modernidad hispánica con el uso del big data y herramientas propias de las Humanidades Digitales.

Bibliografïa:

ROIG SANZ, Diana, MEYLAERTS, Reine (en prensa), «Customs officiers or smugglers? Literary translation and cultural mediators», Peripheral cultures, Reino Unido, Palgrave.

MEYLAERTS, Reine, GONNE, Maud, LOBES, Tessa y ROIG SAINZ, Diana (2016), «Cultural Mediators in Cultural History: What do we learn from studying mediators complex transfer activities in interwar Belgium», en BREMS, Elke, RÉTHELYI, Orsolya y VAN KALMTHOUT, Ton (eds.), Doing Double Dutch: The International Circulation of Literature from the Low Countries, Lovaina,  Leuven University Press, pp. 51-75.

Hispanic Medieval Tagger (HisMeTag): una aplicación web para el etiquetado de entidades en textos medievales

Luisa Díez Platas
LINHD-UNED

Llanos Tobarra
UNED

Salvador Ros
UNED

Elena González-Blanco
UNED

Antonio Robles-Gómez
UNED

 Agustín C. Caminero
UNED

Gimena del Río Riande
IIBICRIT, CONICET

Palabras clave: Reconocimiento de entidades nombradas, etiquetado, XML-TEI, Español Medieval
Keywords: NER, tagger, XML-TEI, Hispanic Medieval

  1. Introducción

El impacto de las nuevas tecnologías en la investigación en el ámbito de las humanidades ha supuesto una revolución en la recopilación, acceso y representación de la información, así como en el procesamiento de los grandes volúmenes de datos y textos. Es en este contexto y como respuesta a las necesidades crecientes de los proyectos de investigación, en el que surge el término Humanidades Digitales (DH, Digital Humanities) como punto de conexión de distintas disciplinas y que establece la relación entre las nuevas tecnologías y las diferentes comunidades científicas (Del Río Riande, 2016) (Gónzalez-Blanco, 2013).

El creciente uso de la computación en la nube para facilitar la gestión de proyectos humanísticos ha dado lugar a distintas iniciativas como los Entornos Virtuales de Investigación (VRE, Virtual Research Environments) (Bellamy, 2012) desarrollados preferentemente en laboratorios y centros de investigación interdisciplinares especializados en Humanidades Digitales como, entre otros, el Laboratorio de Innovación en Humanidades Digitales de la UNED (LINHD).

Las Humanidades Digitales han establecido originariamente fuertes vínculos con la filología (un testimonio significativo es el consorcio TEI, creador del lenguaje de marcado que abandera esta disciplina) y,  sin embargo, en los últimos años, la tendencia hacia la automatización ha provocado que el análisis textual se haya orientado hacia la lingüística computacional y el área de procesamiento del lenguaje natural (PLN), ámbitos que tradicionalmente no se asociaban con las humanidades en sí mismas. El proyecto POSTDATA (Poetry Standardization and Linked Open Data), que participa de esta tendencia, incorpora en uno de sus paquetes de trabajo el tratamiento computacional del texto en combinación con el análisis semántico de las categorías poéticas. En el seno de este proyecto ha tenido lugar la creación de una de sus primeras aplicaciones, a herramienta Hispanic Medieval Tagger  (HisMeTag).

HisMeTag permite localizar entidades nombradas en textos escritos en español medieval, mediante un proceso automático de reconocimiento de entidades nombradas (NER) y técnicas de PLN para el procesamiento lingüístico y la generación de las distintas variantes que existieron en la época medieval. Localiza, etiqueta términos conocidos y propone nuevos términos para su validación.

La accesibilidad, las distintas formas de visualización, la posibilidad de edición y la capacidad de presentar resultados para su análisis son elementos clave para asegurar el éxito y la funcionalidad de HisMetag, para lo que se ha considerado oportuno construir una plataforma web, funcional y usable.

Sin la intervención explícita del usuario, se transforma un documento textual inicial, bien en formato de texto sencillo o en XML-TEI (TEIConsortium, 2015) en otro documento en formato XML-TEI, pero enriquecido con información sobre los nombres propios, junto con diversos archivos de visualización (en formato HTML o CSV) que incluyen información relevante y totalmente preparada para su futuro análisis, o incluso para ser insertados en proyectos de investigación directamente, si fuera necesario.

  1. Hispanic Medieval Tagger (HisMeTag)

La aplicación web HisMeTag está orientada al análisis de textos medievales teniendo en cuenta las variantes lingüísticas y sus especiales características sintácticas para obtener información sobre las entidades nombradas mencionados en el texto.

Para esta primera demostración de la herramienta se han seleccionado dos textos medievales castellanos del Siglo XIII de distinta naturaleza: un documento notarial de la época alfonsí y un fragmento del Libre dels tres reys d’Orient (Gago Jover, 2011).

La metodología de desarrollo de la aplicación web ha seguido el patrón modelo-vista-controlador desarrollada en Python y basada en el microframework Flask (Ronacher, 2017). La interfaz se ha creado mediante plantillas Jinja2 (Ronacher, Jinja, 2017) y la biblioteca Bootstrap para desplegar un sitio web basado en HTML5, accesible y adaptable.

El flujo de trabajo de la aplicación web se muestra en la siguiente figura (v. fig. 1).

Image and video hosting by TinyPic
Figura 1 Flujo de trabajo de la herramienta HisMeTag. Fuente: Elaboración propia

Las funcionalidades que proporciona la herramienta se describen a continuación:

  • Acepta archivos de entrada de texto TXT y archivos XML-TEI.
  • Permite agrupar diferentes documentos con diferentes versiones para el análisis conjunto o independiente. Los corpus de textos se pueden organizar mediante proyectos para cada usuario registrado.

Image and video hosting by TinyPic
Figura 2 Ventana de proyectos de usuario

  • Permite incorporar información descriptiva sobre textos que será incorporada al archivo XML-TEI de salida como metadatos.
  • Reconoce entidades nombradas de distinta naturaleza mediante el uso de Gazetteers, diccionarios y lexicones
  • Realiza reconocimiento de variantes de nombres mediante un proceso de generación de variantes asociadas y reconocidas aplicando transformaciones morfológicas y fonéticas propias de la norma y la evolución lingüística de la época medieval (por ejemplo, Seulia sería asociado a Sevilla tras la trasformación)
  • Cataloga términos no reconocidos de acuerdo con el contexto semántico de aparición
  • Resuelve términos ambiguos usando contextos semánticos

Los resultados se visualizan de diferentes formas:

  • Archivo XML-TEI con todas las entidades etiquetadas.

Image and video hosting by TinyPic
Figura 3 Ventana de visualización y edición de texto etiquetado

  • Archivos CSV con las entidades reconocidas y características
  • Mapa geográfico de las localizaciones identificadas. Para crear el mapa la aplicación utiliza el servicio cartográfico Leaflet(Vladimir & OpenMaps, s.f.), que permite generar mapas anotados. En el mapa se muestran los lugares que se han identificado con su ubicación actual. Existen otros términos geográficos que no es posible representar porque se ignora su ubicación actual; por ejemplo, la Atlántida. También se incluyen términos ambiguos que podrían interpretarse tanto como nombres de persona como de lugar; como por ejemplo el término Moya, que corresponde tanto a un pueblo como a un apellido. Este mapa se almacena en un fichero HTML para su posterior exportación.

Image and video hosting by TinyPic
Figura 4 Ventana de visualización de los lugares geográficos identificados en el texto

  • Gráficas que se generan usando el paquete Python Bokeh ( Continuum Analytics, 2015). Esta biblioteca genera gráficos interactivos con opciones como zoom o selección de solo un fragmento, posibilitando descargar los gráficos resultantes en una imagen. También se genera una página web HTML que facilita la exportación de los gráficos con las herramientas que proporciona Bokeh. En estas gráficas se presentan:
  • la frecuencia absoluta para todos los términos descubiertos,
  • el número de términos localizados por categorías,
  • la distribución de apariciones de cada entidad en el texto.

Image and video hosting by TinyPic
Figura 5 Gráfico de frecuencias de los distintos tipos de entidades nombradas identificadas

La plataforma permite descargar los resultados del procesamiento realizado en una carpeta comprimida, para todo el proyecto o sólo uno de los recursos. Así, pueden utilizarse los resultados con otras utilidades que acepten los formatos de salida descritos.

 

  1. Conclusiones

Se presenta una versión preliminar de una aplicación web orientada al reconocimiento de entidades nombradas y análisis de textos en español medieval que arroja resultados innovadores para el procesamiento de un corpus textual que hasta ahora se analizaba con métodos manuales. Permite la gestión de proyectos de investigación agrupando los documentos asociados y mediante un potente reconocedor realiza la detección automática de términos, etiquetándolos o generando un documento TEI válido dependiendo de la entrada proporcionada. Sobre ese procesamiento inicial la herramienta ofrece diversas visualizaciones que facilitan la tarea del análisis inicial del texto en su contexto geográfico.

 

Financiación

Este trabajo se enmarca dentro de los proyectos de investigación, proyecto europeo ERC-2015-STG-679528 POSTDATA, y los proyectos financiados por el MINECO: Acción Europa Investiga EUIN2013-50630: Repertorio Digital de Poesía Europea (DIREPO) y FFI2014-57961-R Laboratorio de Innovación en Humanidades Digitales: Edición Digital, Datos Enlazados y Entorno Virtual de Investigación para el trabajo en humanidades, dirigidos por Elena González-Blanco. Además, los autores agradecen el soporte del proyecto de investigación (2014I/PPRO/031) de UNED junto con el Banco Santander, y a la Comunidad de Madrid por el apoyo prestado mediante la Red de Excelencia e-Madrid (S2013-ICE2715). También expresan su agradecimiento al apoyo prestado por SNOLA, reconocida Red de Excelencia (TIN2015-71669-REDT) por el Ministerio de Economía y Competitividad de España. La herramienta se comenzó a desarrollar gracias al proyecto de investigación microgrant Mediaeval Iberian de Pelagios Commons (2016).

Bibliografía

BELLAMY, C. (2012), «The Sound of Many Hands Clapping: Teaching the Digital Humanities through Virtual Research Environment (VREs)», Digital Humanities Quarterly, vol. 6, n.º 2.
En:

Continuum Analytics (2015), «Welcome to Bokeh». En: (Fecha de consulta: 25-02-2017)

DEL RÍO RIANDE, G. (2016), «Humanidades Digitales. Construcciones locales en contextos globales», SEDICIBlog. En  <http://sedici.unlp.edu.ar/blog/2016/03/22/humanidades-digitales-construcciones-locales-en-contexto> (Fecha de consulta: 28-04-2017).

DEL RÍO RIANDE, G., GONZÁLEZ-BLANCO, E., MARTÍNEZ-CANTÓN, C., ROS, S., ROBLES-GÓMEZ, A., PASTOR, R., DÍEZ-PLATAS, M.L., CAMINERO, A. (2017), «EVI-LINHD, A Virtual Research Environment for the Spanisk-Speaking Community», Digital Scholarship in the Humanities (DSH) (aceptado para publicación).

GAGO JOVER, F. (2011), «Libre dels tres reys d’Orient, Textos Poéticos Españoles», Digital Library of Old Spanish Texts. Hispanic Seminary of Medieval Studies. En: <http://www.hispanicseminary.org/t&c/poe/docs/text.tro.htm> (Fecha de consulta: 25-04-2017).

GÓNZALEZ-BLANCO, E. (2013), «Actualidad de las Humanidades Digitales y un ejemplo de ensamblaje poético en la red: ReMetCa», Cuadernos Hispanoamericanos, n.º 761, pp. 53-67.

RONACHER, A. (2017), «Flask, web development, one drop at a time». En: <http://flask.pocoo.org/> (Fecha de consulta: 23-05-2017).

RONACHER, A. (2017), «Jinja». En:  <http://jinja.pocoo.org/docs/2.9/>  (Fecha de consulta: 23-05-2017).

TEIConsortium. (2015), «Text Encoding Iniciative». En:  <http://www.tei-c.org/Guidelines/P5/>  (Fecha de consulta: 20-05-2017).

VLADIMIR, A. & OpenMaps. (n.d.). «Leaflet, an open-source JavaScript library for mobile-friendly interactive maps». En: <http://leafletjs.com/>  (Fecha de consulta: 23-05-2017).

Geoda: sistema para la representación de información y visualización datos en el ámbito de la cultura artística

Antonio Cruces Rodríguez
Universidad de Málaga

Nuria Rodríguez Ortega
Universidad de Málaga

Palabras clave: infraestructuras tecnológicas, cultura artística, Expofinder, captura de datos, análisis de datos, visualización de datos
Keywords: technologica infrastructures, artistic culture, Expofinder, data capture, data analysis, data visualization

El objetivo de esta comunicación es presentar el sistema Geoda, un prototipo tecnológico concebido como desarrollo del sistema Expofinder, diseñado, a su vez, como un sistema integral para la captura, estructuración, análisis y visualización de datos relacionados con la cultura artística.

El origen del sistema Expofinder se encuentra en prototipo desarrollado en el marco de los proyectos Exhibitium , financiado por la Fundación BBVA, y del proyecto de I+D ArtCatalogs (HAR2014-51915-P) . Aunque con objetos de investigación diferenciados (exposiciones y catálogos artísticos respectivamente), ambos proyectos están guiados por un objetivo común: experimentar las posibilidades epistemológicas que la aplicación de estrategias de análisis de grandes conjuntos de datos ofrece para desarrollar nuevos modelos interpretativos en el ámbito de la cultura artística. En concreto, y de acuerdo con sus objetos de estudio, estos proyectos centran su atención en el ecosistema de las exposiciones artísticas y sus mecanismos de inscripción, esto es, los catálogos, cuyos datos se analizan aplicando diversas metodologías, especialmente aquellas relacionadas con la teoría de redes.

Para cumplir con estos objetivos, se desarrolló Expofinder <www.expofinder.es>. En líneas generales, Expofinder es un dispositivo tecnológico ambivalente que es capaz de procesar de manera semiautomatizada la diversidad de fuentes web existentes en el espacio Internet susceptibles de vehicular información sobre exposiciones artísticas; y al mismo tiempo compilar la información extraída de dichas fuentes web en forma de datos estructurados para su posterior explotación y análisis a partir de sistemas de datos abiertos e interoperables. A su vez, su modelo de dominio y estructura de datos ha sido diseñado para incorporar también información sobre catálogos artísticos. En su versión 1.7.6, Expofinder se encuentra completamente funcional en su misión de capturar, compilar y estructurar datos, los cuales pueden ser exportables a otras plataformas y software para su posterior análisis.

Sin embargo, durante el proceso de desarrollo se vio la necesidad de implementar un sistema complementario que funcionase como plataforma para el análisis y –sobre todo- visualización avanzada de los datos compilados en Expofinder. Este es el origen de Geoda, que es el aplicativo en el que se centra esta comunicación.

La idea básica en la que se basa Geoda es la de aprovechar los resultados de lo almacenado en Expofinder mediante su captura a través de métodos de interrogación segura del servidor de datos donde estos se almacenan. Se trata, por tanto, de descargar la información de Expofinder mediante uso de AJAX (Asynchronous JavaScript And XML) o REST/RESTful (Representational State Transfer), empleando para su procesamiento únicamente el ordenador cliente y, por tanto, no necesitando potentes servidores de datos sino nodos terminales adecuadamente dotados. Las transferencias de datos están completamente aseguradas mediante técnicas de clave asimétrica y/o doble autenticación, de manera que no es posible emplearlas fuera de contexto.

Las presuposiciones, así como las restricciones epistemológicas y técnicas determinan en gran medida el alcance de Geoda. Estas son:

  1. No debe emplear más que medios técnicos altamente asequibles. Es decir, debe basarse en conocimiento propio de las fuentes abiertas (Open Source) y no necesitar requisitos hardware y software de carácter excepcional. Expofinder + Geoda quiere ser la demostración de que es posible y, es más, muy aconsejable -en especial las instituciones y grupos de investigación de origen académico que operan con recursos públicos-, no recurrir a costosos desarrollos software para realizar tareas de análisis y cuantificación, sino que todo un conjunto de herramientas útiles puede ser diseñado empleando tecnologías Open Source al alcance de cualquiera. Para hacerse una idea, baste con saber que, a día de hoy, una tecnología como la de ATLAS.ti com/> cuesta, hablando de licencias para ONGs y organismos públicos, 32.850€ en modalidad compra para 50 usuarios. El corolario de todo ello es hacerlo con las tecnologías más sencillas que sea posible emplear.
  2. Toda la potencia de cálculo debe recaer en el cliente y no en el servidor. De esa manera Expofinder se configura como el medio para capturar y almacenar datos, pero no el de interpretarlos, de forma que el valor de la herramienta se multiplica al no ser preciso contar con recursos extraordinarios para ponerla en marcha
  3. Geoda debe ser una herramienta fácilmente comprensible y manejable por personal no experto en tecnologías de la información y la comunicación. Por consiguiente, su interfaz ha de ser sencillo, comprensible para cualquier persona sin formación específica, y minimalista para emplear la menor cantidad posible de recursos hard y soft en parafernalia (bells and whistles) y dedicarlos en su mayoría al análisis

Geoda tiene dos objetivos básicos:

  1. tratamiento y representación geográfica de los datos compilados en Expofinder;
  2. tratamiento y representación gráfica (diagramática) y textual de los datos custodiados por Expofinder.

En función de estos dos objetivos, se ha diseñado con las siguientes funciones:

  1. Analizar de forma visual las conexiones entre los distintos elementos para detectar tendencias mediante el uso de tecnologías gráficas. Para ello, se han empleado librerías de acceso público como D3.js, Crossfilter y otros graficadores capaces de trazar diagramas de conectividad y de tendencias. Se emplean a fondo bibliotecas de código especializadas en análisis estadístico.
  2. Analizar de forma geográfica las relaciones, la presencia, la influencia y las conexiones entre los distintos elementos directamente geoposicionables mediante par de coordenadas (exposiciones, instituciones, obras artísticas) y los indirectamente geoposicionables (personas, publicaciones o empresas) por su vínculo con los geoposicionables. En algunos casos, la naturaleza del objeto permite la doble o incluso triple vinculación (ej.: personas como comisarios de exposiciones, pertenecientes a una entidad o autores de publicaciones).

Las técnicas de geoanálisis empleadas en la «encarnación» actual de Geoda tienen en cuenta los campos de metainformación y taxonómicos que son significativos, y pueden ser filtrados por zona geográfica y por periodos temporales, además de por otras características (estilos, país de origen, región, ámbito temporal cubierto por las exposiciones, edades, sexo, duración…). Las actualmente implementadas son las siguientes:

  1. Distribución de los puntos que representan exposiciones y entidades y agrupamiento de los mismos en clusters. Visualmente muy eficaz para localizar las concentraciones de información.
  2. Distribución de entidades y exposiciones representadas con mapa de Con un grado de eficacia visual en la transmisión de la información, en realidad ajusta más que el método de clusters en cuanto se refiere a descubrir los puntos «calientes».
  3. Cálculo de áreas de influencia mediante diagramas de Voronoi (conocidos también como polígonos de Thiessen). Un diagrama de Voronoi es una descomposición de un espacio métrico en regiones, asociada a la presencia de objetos, de tal forma que, en dicha descomposición, a cada objeto se le asigna una región del espacio métrico formada por los puntos que son más cercanos a él que a ninguno de los otros objetos. Para hacerlo, utiliza el cálculo de la distancia euclidiana (medible con una regla, por ejemplo) entre los distintos puntos y traza los baricentros (o centroides) de la red Delaunay, formada por triángulos, conexa y convexa, que cumple la condición de Delaunay. Esta condición dice que la circunferencia circunscrita de cada triángulo de la red no debe contener ningún vértice de otro triángulo. Con ello se consigue dividir el espacio en tantas regiones como puntos u objetos tengamos de tal forma que a cada punto le asignemos la región formada por todo lo que está más cerca de él que de nadie. Si bien no es un sistema exacto de delimitar áreas de influencia, se usa desde hace mucho tiempo en el mundo de la computación y en el del análisis cualitativo; por ejemplo, para saber en un teléfono móvil cuál es la farmacia más
  4. Cálculo de redes relacionales mediante vectores graduados (según su «peso» en el mundo de las relaciones que se estén mostrando) que trazan curvas geodésicas (adaptadas a la curvatura del planeta) entre los puntos de origen (por ejemplo, exposiciones) y los relacionados (pongamos por caso entidades organizadoras). Visualmente muy eficaz para descubrir patrones en la organización de exposiciones, la financiación y la participación de determinados

La expectativa es que una versión funcional de Geoda esté disponible para finales de 2017, por lo que en la exposición del congreso HDH2017 se llevará a cabo la primera demostración pública de este prototipo.

Financiación

Este texto forma parte del proyecto I+D+i Catálogos artísticos: gnoseología, epistemologías y redes de conocimiento. Análisis crítico y computacional, financiado por el Ministerio de Economía y Competitividad dentro del Programa Estatal de Fomento de la Investigación Científica y Técnica de Excelencia; y del proyecto financiado por la Fundación BBVA Generación de conocimiento sobre exposiciones artísticas para su utilización y aprovechamiento multivalente.

Leveraging the International Interoperability Framework and Mirador

Javier de la Rosa
Stanford University Libraries

Palabras clave: interoperabilidad, imágenes, imágenes con zoom, visores de imágenes
Keywords: interoperability, images, zoomable images, image viewers

The International Image Interoperability Framework[1] is a community of academic and national libraries, museums, archives, nonprofits and commercial organizations committed to sharing cultural heritage images. In the past years it has defined common APIs for image delivery that are being supported by a growing ecosystem of open source image servers and clients. The IIIF initiative started small – it was conceived on the back of a napkin at a Cuban restaurant in Palo Alto, California. From these small beginnings, the list of IIIF partners, and its impacts on digital cultural heritage, have steadily grown[2].

As IIIF adoption has grown, the benefits of common APIs and open source software to digital cultural heritage have become increasingly evident. IIIF technologies enable researchers to view, analyse, compare and annotate high resolution images from disparate image repositories in the same workspace using best-in-class image viewers and high-performance image servers. A growing mass of cultural heritage imagery is becoming reusable over the web. Due to this common infrastructure, museums, libraries and archives are able to more easily share content with each other directly without giving away their content to others to host. Common APIs mean that we are no longer bound to a single, monolithic software stack for digital image delivery. Deploying, updating, migrating and integrating image delivery platforms becomes significantly easier for IIIF adopters.

Unfortunately, there are only a few of viewers that claim to be IIIF-compliant. Mirador is probably the best example. Conceived with the IIIF specification in its core, Mirador is a browser-based image viewer that fully leverages the power of the IIIF technology framework, building on the IIIF specifications for tiled image retrieval, presentational structure, and canvas annotations. Mirador has been deployed at a number of institutions, including Stanford University, Harvard University, National Gallery of Art, the Bibliothèque nationale de France, Rijksmuseum, Europeana, or the Vatican Library.

We present the union of IIIF + Mirador as the new workspace for researchers using images of different nature, from images of historical maps or manuscripts, to old editions or artworks, breaking the barriers of access and making possible to aggregate in a same environment very disparate resources living and being curated in many different institutions around the world.

[1] .

[2]< http://iiif.io/community/>.

Aplicación de la metodología del prototipado al diseño de exposiciones temporales: explorando pedagogías innovadoras en el ámbito de la cultura artística*

Teresa Sauret
Universidad de Málaga

Desde que la Cultura se ha convertido en Industria la responsabilidad de su gestión se ha hecho cada vez más exigente. Ya no es suficiente con poner en marcha ideas traducidas en acciones. La proliferación de las iniciativas culturales ha caído en la espiral de la banalización y el fracaso. Para hacer que la industria sea rentable, en tanto que es Industria, el producto debe ser consumible y para ello atractivo. Pero estamos hablando de Cultura. Según la RAE el termino cultura hace referencia tanto a: «Los conjuntos de saberes, creencias y pautas de conducta de un grupo social, incluyendo los medios materiales que usan sus miembros para comunicarse entre sí y resolver necesidades de todo tipo», como a: «Conjunto de conocimientos que permite a alguien desarrollar su juicio crítico», que, empleando una conceptualización ilustrada equivaldría a: «cultivo del espíritu»[1]  o, también, «formación de la mente»[2]. Estamos hablando de intervención.

Las teorías postcolonialistas rechazan cualquier tipo de conducción en el otro, sin embargo, la acción cultural traducida en actividades difícilmente puede eludir el objetivo de la transmisión de conocimiento, dado que buena parte de ellas se estructuran en torno a objetos patrimoniales que, como tales, obligan a un correcto tutelaje del mismo por lo que la difusión de sus valores y esencialidad se funden en la acción de transmitir y difundir.

La cadena secuencial se conforma por tramos que itineran acciones como: tutelaje-difusión de conocimiento-difusión-atracción/seducción-rentabilidad. Este último se resuelve si el producto cubre las expectativas del usuario que lo consumirá y alcanzará niveles de satisfacción, pero no se solucionará si el producto no surge de la competencia: profesional y de gestión.

El volumen de actividades culturales programadas y en activo actualmente (a nivel mundial) es casi infinito y la masificación producida cubre en un tanto por ciento muy bajo los intereses del consumidor.

Por ello, se hace necesario «repensar» la gestión cultural, a todos los niveles. No obstante, en esta comunicación, nos vamos a centrar en las exposiciones temporales, convertidas en «fenómeno de masas» por la dinámica socio cultural desarrollada.

Esta «vuelta de tuerca» proponemos hacerla mediante la aplicación de la metodología del prototipado a los estudios Humanístico, y en este caso concreto, a la gestión de exposiciones temporales en tanto que la filosofía de la interdisciplinariedad, planificación y discusión son básicamente aplicables al proyecto expositivo.

Una exposición temporal es un proyecto y como tal su fundamento es la planificación. La metodología del prototipado aplicado a la gestión cultural posibilita el desarrollo evolutivo en tanto que, la especificación se traduce en: la idea, que se define mediante la discusión a partir de la lluvia de propuestas hasta su negociación y consenso y que determina una versión inicial, un hipotético prototipo (discurso) sobre el que se intervendrá trabajando propuestas intermedias atendiendo la eliminación de los errores clásicos, aplicar las bases del desarrollo y gestionar los riesgos para evitar un retorno catastrófico. Especialmente aplicar métodos orientados a la planificación y determinar la validez del producto en función de a quien va dirigido/ empatizar/definir.

Si todo ello resuelve un proyecto desde el marco teórico de la metodología de prototipado, el factor de la eliminación del riesgo al rechazo se vehicula a partir del diseño de estrategias de difusión y atracción, en el que la interactuación se favorezca con la inclusión de las nuevas tecnologías como instrumentos de apoyo a los objetivos del proyecto.

Como se desarrollará en la comunicación, el estudio de casos concretos, proyectos elaborados por los alumnos en el marco del máster y la asignatura referidas, analizarán propuestas innovadoras en este sentido en las que las nuevas tecnologías ayudarán, no solo a hacer más accesible los contenidos sino también a la elaboración de un mapa de datos interconexionados que amplíen el análisis de los diferentes agentes que interviene en una exposición de manera que ayude a su comprensión y al trabajo sobre la eliminación de riesgos y catástrofes.

Sin duda, la responsabilidad de la acción, en tanto que, debe cubrir unas necesidades sociales, producir un gasto y a la vez conseguir un equilibrio (cuando no excedentes), obliga a posicionarse desde el territorio ético, por lo que, la posición de la reflexión promueve un desafío: establecer la idoneidad de la gestión y del proyecto.

Estamos convencidos de que buena parte de la culpa del sistemático fracaso de las exposiciones temporales se debe a la falta de la profesionalidad. Inoperancia de los comisarios, cativos objetivos de los patrocinadores, ausencia de discursos atractivos y competitivos. Para ello, en el marco del proyecto de Innovación educativa PIE 180 de la UMA y del máster universitario: «Desarrollos sociales de la cultura artística» del Departamento de Historia del Arte de la Universidad de Málaga, hemos puesto en marcha la aplicación de la metodología del prototipado, como innovación educativa, en la asignatura de «Gestión de exposiciones temporales y prácticas curatoriales», con el objetivo de formar a un alumnado de postgrado que cubra las necesidades profesionales en este campo desde la cualificación profesional.

*Este trabajo forma parte de los resultados del Proyecto de Innovación Educativa Metodologías de prototipado, de design thinking e innovación tecnológica para el desarrollo de proyectos artístico-culturales (PIE15-188) de la Universidad de Málaga.

[1] Dictionnaire de l’Académie Française de 1718.

[2] UNESCO “la cultura debe ser considerada como el conjunto de los rasgos distintivos espirituales y materiales, intelectuales y afectivos que caracterizan a una sociedad o a un grupo social y que abarca, además de las artes y las letras, los modos de vida, las maneras de vivir juntos, los sistemas de valores, las tradiciones y las creencias”(Declaración Universal sobre Diversidad Cultural. Una visión, una plataforma conceptual, un semillero de ideas, un paradigma nuevo. p. 4.).

La industria cultural la define la UNESCO como aquella que produce y distribuye bienes o servicios culturales que, «considerados desde el punto de vista de su calidad, utilización o finalidad específicas, encarnan o transmiten expresiones culturales, independientemente del valor comercial que puedan tener. Las actividades culturales pueden constituir una finalidad de por sí, o contribuir a la producción de bienes y servicios culturales» (UNESCO, ed. (20 de octubre de 2005). «Artículos 4 y 5». Convención sobre la protección y la promoción de la diversidad de las expresiones culturales 2005.).

Proyecto Mala Praxis. Plataforma transdisciplinaria en el cruce del arte, la ciencia y la tecnología en el ámbito educativo

José María D’Angelo
Universidad Nacional del Tres de Febrero

Palabra clave: Arte Electrónico, Educación, Transdisciplina, Creación, Tecnología
Keywords:  Electronic Art, Education, Transdisciplinary, Creation, Technology

El presente artículo aborda el proyecto Mala Praxis de aquí en más (MP), definido como plataforma transdisciplinaria en el cruce del arte, la ciencia y la tecnología en el ámbito educativo.

La propuesta es una intervención artístico pedagógica que aborda la construcción del conocimiento de manera transdisciplinaria a partir de la creación de obras de arte electrónico.

Destacamos que la praxis de las artes electrónicas en tanto modo de producción de conocimientos contiene formas de pensamiento derivadas de las artes, las ciencias y la tecnología. Dicha convergencia disciplinar compromete prácticas y reflexiones, que, en mayor o menor medida, descubren un nuevo territorio para el encuentro y la interacción de individuos y saberes.

  1. Contextos y paradigma

A principios del nuevo milenio la UNESCO declara el aprendizaje social y la adquisición de conocimientos como factores relevantes para el desarrollo de la sociedad del conocimiento (UNESCO, 2008). El aprendizaje social en el marco de una comunidad implica las acciones, aportes y reflexiones de los ciudadanos en pos de construir conocimientos pertinentes a las necesidades de transformación de nuestro tiempo. Es pertinente plantear desde qué perspectiva nos posicionamos ante el conocimiento. Según el filósofo y sociólogo francés E. Morin (2000) el «conocimiento pertinente» concierne a la compresión de los problemas globales, el contexto y la multi -dimensionalidad de los aspectos que afectan la vida contemporánea. Por tanto, nuestro tiempo, signado por factores de incertidumbre, complejidad y dinamismo, reclama una revisión de los posicionamientos epistemológicos sobre los viejos paradigmas. Bajo este línea de pensamiento sumaremos las ideas de Inés Aguerrondo (1998), especialista en educación, al afirmar que el nuevo paradigma del sistema educativo debería estar orientado a incorporar el conocimiento desde un enfoque basado en la investigación y el desarrollo, y no en la mera repetición de conceptos, y , a su vez , entiende el aprendizaje como resultado de la construcción activa del sujeto sobre el objeto de aprendizaje. En relación a la enseñanza Aguerrondo subraya la importancia de los procedimientos mentales aplicados a la realidad y valora las actitudes éticas que entran en juego con los campos del saber. Desde esta perspectiva aprender no es una acción ingenua que se ciñe únicamente a la esfera conceptual, sino al reconocimiento de los sujetos implicados. En palabras del pedagogo latinoamericano P. Freire, aprender parte del reconocimiento del otro como ser humano (Freire, 1969). Es por esto que dicho reconocimiento implica el respeto por la diversidad y la diferencia del otro en el marco de la convivencia social.

Por contraposición, el viejo paradigma educativo sostuvo sus concepciones bajo prácticas reproductivas, uniformes y homogéneas donde la parcelación de los conocimientos y saberes eran consecuentes con la falta de articulación epistemológica. Es en dicho escenario donde surge la necesidad de generar articulaciones institucionales, la academia y la escuela. A partir de esta descripción nos parece pertinente considerar los aportes del saber artístico en el marco de proyectos educativos ampliando los horizontes de acción tanto la construcción del conocimiento como en el aprendizaje social. En ese aspecto nos remitimos al Arte Electrónico en tanto propone cruce de saberes y conocimientos. Indagar las particularidades que asumen las prácticas artísticas en diálogo con la educación supone el compromiso y la oportunidad de dinamizar transformaciones que invierten la lógica reproductiva y parcelada de la enseñanza.

Es así como nos preguntamos ¿Qué particularidad tienen las prácticas y procesos artísticos para dinamizar innovaciones que inviertan la lógica reproductiva y parcelada en la educación?  ¿qué características debieran fortalecerse en las áreas del conocimiento al poner en juego cruces e hibridaciones? ¿qué aspectos debieran contemplar una didáctica transdisciplinaria que apele a la motivación de los estudiantes? ¿qué rol asume el arte y las tecnologías al vincularse con dichas prácticas?

  1. Concepciones transdisciplinarias

Ahora bien, es pertinente considerar la noción de transdisciplinariedad. El prefijo trans («más allá de») remite a la superación de los métodos de las disciplinas implicadas. Roy Ascott (2009) propuso el concepto de transdisciplinariedad sincrética para describir un modelo plural y multidireccional que permite la innovación, la construcción de nuevos saberes y la implementación de nuevos abordajes del objeto, sin que por ello las disciplinas en diálogo pierdan sus características esenciales. Si bien el concepto de transdisciplinariedad tiene otras acepciones este es el aspecto que nos posibilita entender lo que sucede en la metodología artística al confluir con la electrónica digital y la ciencia, sin perder la especificidad de lo artístico. En ese aspecto la Dra Yeregui [1] aporta reflexiones que nos permiten adscribir a su pensamiento en tanto supone la confluencia de dinámicas y principios basados en sistemas relacionales que desbaratan la parcelación del conocimiento, privilegiando, la retroacción, la interacción y la interconectividad, signado por la multi-dimensionalidad, (…) el enfoque transdisciplinario no sólo propone la integración o diálogo entre las disciplinas, sino que va más allá aún al ubicar al sujeto en el centro de la escena: es el hombre el que debe llevar a cabo un viaje integrador por el vasto y diverso océano del conocimiento. La conciencia transdisciplinaria permite entonces tender puentes que rompan la mirada compartimentada y liberar al sujeto de los particularismos que imponen los ghettos del conocimiento (Yeregui, 2014: 8)

De esta manera MP asume las metodologías y paradigmas propios del arte y la ciencia como disparadores de procesos transdisciplinarios. Por lo cual los procesos de investigación y creación son sustentados en la praxis artística y el aprendizaje por proyectos (Perrenoud, 2000) propiciando un abordaje diverso y distintivo sobre la construcción del conocimiento y el proceso de enseñanza – aprendizaje.

  1. Acerca del proyecto Mala Praxis

La Universidad Nacional de Tres de Febrero desarrolla el proyecto MP en escuelas públicas secundarias del conurbano bonaerense. El objetivo es potenciar el vínculo y la articulación entre educación formal preuniversitaria y universitaria que permita establecer un puente natural de inserción de los alumnos en la universidad.

Objetivos específicos:

  • Abordar procesos de construcción de conocimiento en forma transdisciplinaria que desarticulen las separaciones disciplinares tradicionales desde abordajes plurales y diversos.
  • Estudiar modelos pedagógicos que involucren e incluyan a los alumnos a través de estrategias didácticas innovadoras donde la producción, metodología y paradigma propios del arte, sea el disparador de procesos transdisciplinarios
  • Resignificar la tecnología en el ámbito educativo como lenguaje creativo que favorezca el aprendizaje, diferenciándose de las concepciones de usabilidad y consumo.

Desde el año 2010 a la fecha el proyecto se lleva a cabo en escuelas públicas de secundaria básica y superior. Paralelamente a la implementación en el aula se aborda un trabajo reflexivo sobre el rol docente como mediador de los procesos de aprendizaje que permite adecuar, crear y diseñar prácticas pedagógicas afines a los proyectos creativos de sus alumnos a partir de una lectura centrada en los emergentes del proceso.

MP se concibe como plataforma en tanto espacio que aloja un dispositivo de intervención artístico pedagógico. Dicho dispositivo alberga el fruto de pensamientos y acciones de un equipo de gestión institucional, docentes de la escuela secundaria de distintas áreas disciplinares y tutores artísticos de la Maestría en Tecnología y Estética de las Artes Electrónicas y la Licenciatura en Artes Electrónicas. Los docentes y tutores conforman un binomio artístico pedagógico en el espacio curricular durante todo el ciclo lectivo. Por tanto acompañan, guían y median los procesos de enseñanza aprendizaje en sus distintas etapas. La implementación de la propuesta parte del reconocimiento de las inquietudes e intereses de los estudiantes. A partir de construir y sostener un vínculo con los alumnos surgen preguntas y motivaciones que descifran historias personales y vivencias familiares. A partir de estas historias se develan aspectos autorreferenciales que denotan la identidad y contextos socio culturales. MP propone centrarse en la práctica, lo que de hecho «hacen» los artistas, los científicos y los tecnólogos en los espacios de taller – laboratorio. A través de la praxis se articulan aspectos conceptuales, artísticos y tecnológicos. De esta manera se desarrollan proyectos personales o colectivos que deviene en la creación y producción de obras. Es así como surgen instalaciones, objetos mecatrónicos, performance, videoarte, videojuegos, esculturas sonoras. En su proceso los estudiantes aprenden programación, mecatrónica, electrónica, audio e imagen digital. El enfoque de la enseñanza se sostiene en la diversidad (Anijovich, 2012) tanto los modos de abordar el conocimiento como en las distintas fuentes de información, recursos, espacios de trabajo, tipos de agrupamiento y formas de evaluación, diferenciándose de la linealidad y uniformidad de estrategias de enseñanzas. La escucha, el diálogo, la construcción de vínculos junto con la consideración de los aspectos motivacionales de los estudiantes son los factores que se entrecruzan con los aspectos conceptuales, técnicos y artísticos.

Así, la inclusión educativa y la producción de subjetividad (individual y colectiva) se dan en el cruce entre producción artística, empoderamiento de los lenguajes y herramientas tecnológicas, la innovación didáctica, y las formas colectivas de revisión y construcción del saber.

Financiación

Universidad Nacional de Tres de Febrero – Argentina. Secretaría de Políticas Universitarias – Ministerio de Educación. Argentina.

Bibliografía

AGUERRONDO, I, «El Nuevo Paradigma de la Educación para el siglo». En: > (Fecha de consulta: 27-09-2017).

ANIJOVICH, R., MALBERGIER, M., SIGAL, Celia (2012), Una introducción a la Enseñanza para la Diversidad, Buenos Aires, Argentina, Fondo de cultura Económica.

ASCOTT, Roy (2009), «Del ciberespacio a la realidad sincrética», Arte, Ciencia y Tecnología. Un panorama crítico, Buenos Aires, Comp. La Ferla, J. Espacio Fundación Telefónica.

FREIRE, P. (1969), La Educación como práctica de la libertad, Buenos Aires, Ed. Siglo XXI.

MORÍN, E. (2000), Los siete saberes necesarios a la educación del futuro, Caracas, UNESCO.

PERRENOUD, P. (2000), «Aprender en la escuela a través de proyectos: ¿por qué?, ¿cómo?», Revista de Tecnología Educativa (Santiago Chile), XIV, n.° 3,  Facultad de Psicología y de Ciencias de la Educación, Universidad de Ginebra, pp. 311-321.

SOUTO, M. (2001), Introducción al pensamiento de la complejidad en la didáctica, Materia Didáctica II, de la Carrera de Ciencias de la Educación, Facultad de Filosofía y Letras, UBA.

UNECO (2008), Etapas hacia las sociedades del conocimiento, Montevideo.

YEREGUI, M. (2014), Prácticas de pensamiento en las artes electrónicas y viceversa, Argentina, Compilado por Ciudad Autónoma de Buenos Aires.

ADLER, Jazmín, VALENTE, Claudia (2014), «Trabajo en red, proyectos colaborativos y transdisciplinariedad en las artes electro-digitales», HUM736, Papeles De Cultura Contemporánea, n.º 19, España. En: <http://www.ugr.es/~hum736/revista%20electronica/numero19/PDF/Trabajo_en_red.pdf>.

CARRIZO, L., ESPINA PRIETO, M., KLEIN, J. (2004), «Transdisciplinariedad y Complejidad en el Análisis Social», Documento de la Organización de las Naciones Unidas para la Educación la Ciencia y la Cultura (UNESCO), Francia.

[1] Mariela Yeregui, Artista Electrónica de destacada trayectoria, Doctora en Filosofía (Suiza) y directora de la Maestría en Artes Electrónicas UNTREF (Argentina) y del Proyecto Mala Praxis.

Liter·Alia: Literaturas Hispánicas en contexto. Una propuesta de edición digital anotada de textos literarios hispánicos para su uso en la clase de ELE

Ingerid Grønnevik Flåskjer
Universitetet i Oslo

Ana Belén Mañas Gómez
Universidad de Salamanca

Álvaro Llosa Sanz
Universitetet i Oslo

Palabras clave: Scalar, Anotación didáctica de corpus, edición enriquecida, lectura multimodal
Keywords: Scalar, Didactics and corpus annotation, Enhanced edition, multimodal reading

Con gran frecuencia, los estudiantes de español como lengua extranjera encuentran dificultades de comprensión lectora en textos literarios debido a la riqueza de vocabulario y sus expresiones idiomáticas, así como por la dificultad de comprender elementos contextuales históricos y estéticos como apoyo para reflexionar sobre el texto. El estudio de la literatura en la clase de ELE implica «aprender lengua y literatura» (Sáez, 2010: 59) y los textos literarios «son una herramienta esencial para el aprendizaje del léxico, de la gramática, la ortografía o de la cultura en sí misma» y «un elemento motivador orientado a potenciar los aspectos lingüísticos-comunicativos, y al desarrollo de las diversas destrezas y habilidades lingüísticas» (Nevado Fuentes, 2015: 152-153). Recordemos además que «para que se dé una adecuada comprensión de un texto, es necesario que el lector esté dedicado a construir significados mientras lee» (Jouini, 2005: 96). Por supuesto, una selección significativa, motivadora, explotable y accesible de lecturas y la elaboración de actividades estratégicas previas y posteriores ayudarán a la dificultad de la comprensión (Albaladejo, 2007: 6-26), pero la tarea de establecer inferencias sobre el sentido literal y cultural-contextual del texto durante el proceso de lectura puede verse también apoyada y sugerida por anotaciones en el propio texto, ya que enfrentarse en solitario a la lectura fuera del aula como tarea sigue resultando desafiante para muchos aprendices; una edición del texto anotada digitalmente aporta ayuda a la comprensión lectora y a la interacción multimodal con materiales audiovisuales que potencien el desarrollo de las habilidades de comprensión oral e incluso la producción escrita. El estudiante lector de literatura debe también comprender una cultura, reconocer unos valores históricos, estéticos y estructurales en la obra literaria ya que «el texto literario no es sólo un hecho lingüístico, es también la construcción de un mundo» (Sáez, 2010: 60).

Ante esta cuestión, en la Universidad de Oslo nos preguntamos en qué nos podría ayudar una edición digital del texto y qué tipo de edición nos ayudaría más a cubrir las necesidades de estudiantes con un nivel medio avanzado de español (B2) y escasa formación literaria o histórica. Como respuesta, se decidió en 2016 crear un proyecto de anotación digital de textos literarios hispánicos en el marco de una asignatura de introducción a los textos literarios contemporáneos (siglos XIX-XXI) para estudiantes de grado de lengua y literatura española: Liter·Alia: Literaturas Hispánicas en contexto (Llosa Sanz et alter, 2016). Se reunió un grupo editorial del proyecto con diversas responsabilidades y experiencia que complementase bien con los desafíos del proyecto. Con la colaboración de un coordinador  (el  responsable de la asignatura), dos editoras principales con formación en estudios hispánicos (una de ellas extraída entre los participantes del curso en el año anterior) y un grupo de asesores doctores con experiencia digital en didáctica, lengua y literatura, preparamos un proyecto piloto aprovechando la potencialidad del software diseñado por The Alliance for Networking Visual Culture llamado Scalar, «a free, open source authoring and publishing platform that’s designed to make it easy for authors to write long-form, born-digital scholarship online» (Scalar, 2010) Esta plataforma es capaz de combinar en una sola pantalla diversos materiales textuales y audiovisuales anotados y enlazados entre sí, creando todo un haz de materiales relacionados y conectados entre sí fáciles de consultar. Las herramientas de Scalar (notas ocultas, notas al margen, comentarios abiertos, cronología, visualización de elementos enlazados y etiquetas) nos han permitido elaborar anotaciones multimedia no intrusivas alineadas con nuestros objetivos de comprensión lingüística, estética y cultural, con opciones de producción y discusión escrita en grupo. El conjunto de textos (más de una decena por ahora) forma además una unidad de carácter colectivo en la que pueden buscarse y usarse todos y cada uno de los textos y anotaciones por separado, a modo de antología didáctica de textos literarios hispánicos y sus respectivos materiales enlazados.

¿Qué anotar y cómo anotar? ¿Cómo evitar el exceso o la carencia de información? ¿Anotamos con palabras, imágenes o videos? ¿Qué materiales auténticos tenemos en línea y son adecuados o representativos para nuestro perfil de lector? ¿Cuándo crear materiales propios? ¿Dónde colocar en el texto las anotaciones y a qué materiales deben asociarse? ¿Qué preguntas de reflexión crear y cuántas? Tras un proceso de decisiones editoriales y pedagógicas que detallaremos en nuestra presentación, logramos proponer y probar en el aula una serie de textos anotados en línea, en cuya lectura se refuerzan las habilidades mencionadas que debe mejorar un estudiante de lengua extranjera, y donde se presenta un texto literario anotado que, al tiempo que facilita la comprensión literal del texto, ayuda a hacer recesos significativos con materiales audiovisuales ligados a la lectura que contextualizan aspectos históricos y estéticos o estructurales de la obra, y abre el debate entre lectores con cuestiones de reflexión en torno a los temas  o estructura literaria de la misma. Además, la selección de materiales que se ofrece en la edición facilita indirectamente a los lectores descubrir posibles fuentes multimedia en línea fiables y recomendadas donde poder buscar otra información cuando se enfrente a diferentes textos no anotados (y le capacita en la creación nuevos textos anotados). Por último, la edición anotada ayuda a desarrollar en el lector un aprendizaje sobre cómo se hace una lectura atenta, al constatarse fácilmente las asociaciones entre palabras o expresiones anotadas y el contenido de sus materiales.

Financiación

El proyecto ha sido financiado por el Institutt for litteratur, områdestudier og europeiske språk de la Universitetet i Oslo (Noruega).

Bibliografía                                     

ALBALADEJO, María Dolores (2007), «Cómo llevar la literatura al aula de ELE: de la teoría a la práctica», MarcoELE. Revista de didáctica, ELE, n.º 5, pp.1-51.

JOUINI, Khemais (2005), «Estrategias inferenciales en la comprensión lectora», Glosas didácticas, n.º 13, pp.95-114.

LLOSA SANZ, Álvaro, GRØNNEVIK FLÅSKJER, Ingerid, MAÑAS, Ana Belén et al. (2016), «Liter·Alia: Literaturas Hispánicas en contexto, Scalar». En: <http://scalar.usc.edu/works/literalia/index> (Fecha de consulta: 05-06-2017).

NEVADO FUENTES, Charo (2015), «El texto literario en las clases de ELE: un recurso didáctico y motivador», Revista Internacional de Lenguas Extranjeras, n.º 4, pp. 151-167.

SÁEZ, Begoña (2010), «Texto y literatura en la enseñanza de ELE», Actas XXI Congreso Internacional de ASELE, Salamanca, pp. 57-66.

SCALAR (2010), The Alliance for Networking Visual Culture. En: <scalar.usc.edu> (Fecha de consulta: 05/06/2017).

Danza española y videojuegos: el reto de la adaptación de la narrativa

Alejandro Romero Hernández
Universidad Complutense de Madrid

Borja Manero Iglesias
Universidad Complutense de Madrid

César Díaz-Faes Péres
Universidad Complutense de Madrid

Manuel González Riojo
Universidad Complutense de Madrid

Palabras clave: M-learning, E-learning, Danza Española, Arte, Danza, Narrativa
Keywords: M-learning, E-learning, Spanish Dance, Art, Dance, Narrative

Presentamos el diseño y desarrollo de un videojuego educativo que tiene como objetivo acercar la danza española a los más jóvenes en el marco de una colaboración entre el Ballet Nacional de España (BNE) y la Universidad Complutense. Mostraremos el cambio de narrativa de la danza a un videojuego, y, por tanto, las soluciones que se aportan al reto de transformar el lenguaje no verbal con el que se escenifica una coreografía a un videojuego que traduce los movimientos en mecánicas de juego.

Es necesario ofrecer una respuesta al distanciamiento entre la disciplina de la danza y la población española. Lo demuestran los datos recogidos por la última encuesta de hábitos y prácticas culturales en España elaborada bianualmente por el Ministerio de Educación, Cultura y Deporte del gobierno español, donde se recoge que sólo un 7% de los encuestados han asistido a ver un espectáculo de danza entre los años 2014 y 2015. Este porcentaje se reduce si nos centramos en la danza española. A este tipo de espectáculos sólo asiste un 17.9% del público asiduo a espectáculos de danza, lo que da como resultado un 1.25% respecto al total de encuestados.

Con el fin de acortar las distancias que existen entre la danza y los jóvenes, los llamados serious games (juegos serios) o, videojuegos educativos, son una solución probada como herramienta de aprendizaje efectiva. Se han aplicado a multitud de campos de la enseñanza: las matemáticas, la informática, las ciencias sociales, la geografía o los idiomas. Por último, cabe destacar el éxito del uso de este tipo de videojuegos en artes escénicas como el teatro clásico. Basándose en estos estudios, el Ballet Nacional de España ha puesto en marcha una iniciativa para aplicar los beneficios de estas herramientas tecnológicas al acercamiento de los más jóvenes a la danza folclórica española. Para ello, se ha creado un proyecto en colaboración con la Universidad Complutense, que será la encargada de la elaboración del videojuego.

Como ocurre en la mayoría de los proyectos multidisciplinares, el primer reto consiste en la compresión por parte de los diseñadores del objeto que se quiere convertir en videojuego, en este caso la danza española. Para ello, en una primera etapa, los diseñadores acudieron diariamente a la sede del Ballet Nacional de España a los ensayos y entrenamientos de la compañía. El objetivo de estas visitas era comprender el día a día de los bailarines como inspiración para la creación del juego.

En una segunda etapa, se elaboraron y se realizaron entrevistas a los bailarines. Durante unos 45 minutos contaban su vida profesional, desde que empezaron en la infancia hasta llegar al BNE y su experiencia en la actualidad. A su vez, se les preguntaba sobre la dificultad de su trabajo, con especial atención a la parte técnica de los movimientos.

Por otro lado, se realizaron entrevistas a los integrantes del equipo técnico y de dirección de la organización, desde los maestros de danza hasta el director del BNE pasando por la directora artística. Todos coincidían en la importancia de reflejar los cuatro estilos pertenecientes a la danza española, así como la forma de diferenciarlos.

Con toda la información recolectada se procedió a la realización del diseño del juego a partir de la elección del dispositivo objetivo para el que ha diseñado la herramienta: tabletas, aunque se realiza un diseño lo más adaptable posible a todo tipo de dispositivos móviles.

En tercer lugar, y para representar cualquiera de los diferentes palos de la danza española (folclore, flamenco, danza estilizada y escuela bolera), se decidió que el jugador interactúe con el juego tocando la pantalla. Es fundamental que se mantenga la misma mecánica durante todo el juego con el fin de que el jugador sienta que tiene el control de juego y evitar frustraciones.

Se diseñaron y desarrollaron distintas interacciones con el juego respetando lo comentado en el párrafo anterior. Jugando con el posicionamiento en pantalla de las mismas se consigue reflejar los distintos movimientos básicos de las disciplinas escenificadas por el BNE. En concreto se han desarrollado tres tipos de interacción:

  1. Tap: botón rítmico que aparece al son de la música, de modo que represente movimientos simples o individuales. Este botón anuncia cuándo dar al botón a modo de aureola que se estrecha. Según la posición pueden ser de brazos, piernas, etc.
  2. Multitap: botón para pulsar multitud de veces seguidas (variable). Este botón representa movimientos repetidos muchas veces en un corto periodo de tiempo. Según la posición en la pantalla puede ser un taconeo, castañuelas, etc.; tan típicos en el flamenco.
  3. Follow the path: interacción que consiste en una estrella (con la que interactuamos) que hemos de arrastrar por un encima de un «camino» dibujado por monedas en orden de más cercano a más lejano. Este botón pretende representar movimientos que requieren desplazamientos o que son más estilizados, por ejemplo, un salto o un movimiento en vueltas por el escenario.

El juego exige realizar correctamente las interacciones cuando aparecen en pantalla. Cada acierto se suma a la puntuación global. A modo de feedback para el usuario, aparece una barra lateral (aparece a la derecha de la pantalla) la cual indica el grado de acierto en cada momento. Cada acierto en las interacciones suma y cada fallo resta en esta barra. Todas las interacciones tienen un tiempo de vida limitado y configurable, por lo que desaparecen cuando se cumple ese tiempo de vida y cuenta como fallo. Todas estas interacciones se pueden configurar a modo de coreografía a través de un archivo.

El último punto clave para que el cambio de narrativa sea fructífero, y el más importante de todos, es el diseño de los niveles para la cohesión entre las interacciones descritas anteriormente, la música y el baile, los cuales suceden a un ritmo igual. El diseño debe ser coherente con el baile y, a su vez, han de aparecer las distintas interacciones al ritmo de la música. Para ello analizamos segundo a segundo los movimientos de la coreografía ofrecida como ejemplo por el ballet y acoplamos a cada movimiento una interacción en el momento en el que se realiza. A su vez, la aparición de las mismas es acoplada al ritmo y tempo de la música, creando una consonancia perfecta entre los 3 puntos claves en este juego.

Todo el proceso de desarrollo se ha elaborado con la herramienta Unity, motor de videojuegos público y gratuito. Esta herramienta es la más potente para equipos pequeños, ya que permite realizar cosas muy vistosas y potentes en cortos periodos de tiempo. Por esta razón se eligió, ya que el equipo de desarrollo está integrado por tres programadores. Existen herramientas como e-adventure, que limita mucho el tipo de juegos que se pueden desarrollar con él: principalmente juegos de aventura conversacional. Otra herramienta potente es Unreal Engine, perfecta para equipos grandes; deja una amplia libertad a los desarrolladores, pero conlleva un gasto de tiempo muy grande para cada pequeño componente a desarrollar.

En una última etapa, se realizó una evaluación formativa para testear el funcionamiento del diseño. Para realizarla, se prepararon 3 niveles diferentes con distintos diseños posibles sobre la misma música y coreografía. Ésta se realizó con estudiantes voluntarios de la Facultad de Filología de la Universidad Complutense de Madrid. La evaluación consistió en la prueba del juego seguido de un test en el cual se preguntaba sobre distintos aspectos del juego.

Presentaremos las conclusiones de esta evaluación formativa son altamente fructíferos, por cuanto aportan claves sobre el diseño óptimo de los niveles y sobre los aspectos a los que los jugadores confieren más importancia.

Augmented Reality and Virtual Museums for the transmission and creation of knowledge: designing an app for the Alhambra as a case study

Elettra La Duca
Universidad de Granada

Palabras clave: Realidad Aumentada, Museo Virtual, Alhambra, Historia del Arte, Patrimonio Cultural
Keywords: Augmented Reality, Virtual Museum, Alhambra, Art History, Cultural Heritage

In recent years, the quick and pervasive evolution of technology has transformed many academic fields and institutions, such as those connected to the cultural heritage, where, among others, Augmented Reality and Virtual Museums are becoming some of the most widespread and influencing scientific developments for museums and archaeological sites.

At the moment, Augmented Reality is mainly employed to enhance the visitor’s experience, proving to be quite successful because of characteristics that are not commonly found in traditional communication strategies for cultural institutions.

Applications based on this instrument allow, in the first place, for a high level of participation when exploring a monument. Depending on the software, the public can interact with the physical surroundings in different ways: models of previous historical phases can be perused to study the evolution of the site; notable elements can be zoomed and explored, usually accompanied by textual or audio explanations; in some cases the visitor’s comments can be shared through social media platforms. A further participatory component of great success, especially among the younger generation, is the introduction of edutainment sections, namely, games that guide in the discovery of particular aspects of the artwork or the monument.

Moreover, in many cultural sites that employ it, Augmented Reality can provide different routes based on the user’s characteristics, such as age and knowledge on the subject, while it also offers visitors the option to autonomously select the content they are interested in and suggests related topics. Because of the vast array of media it supports, this technology allows the public to choose through which tools they wish to explore the museum or monument, a possibility that becomes especially important in the case of people with sensory disabilities. The opportunity to create personalized visitor’s experiences is an important contributing factor for the success of Augmented Reality.

Furthermore, this instrument is perceived by the public as an exciting change from audio-guides and text panels. Indeed, despite the fact that the first use of Augmented Reality for the cultural heritage is over twenty years old, its slow diffusion allows it to be still seen as novel, while at the same time the daily contact that visitors have with technology permits an intuitive and easy interaction with most of the apps offered by cultural institutions.

While the public’s positive response has established Augmented Reality as the new standard of museum communication, this tool is still largely overlooked as a scholarly resource.

Most AR apps employ two main types of content, digital reconstructions and cultural heritage layers, both focused on visualizing the monument’s stratigraphy. Digital reconstruction are virtual models based on documents and scientific analysis, which usually aim to recreate the artwork’s aspect during a specific moment in time. In 1996, the «Meta-Museum» proposed for the archaeological site of Otsuka, Japan, already provided users with digital reconstructions, which have since become a staple in AR apps for cultural institutions (Mase, Kadobayashi, Nakatsu, 1996). Cultural heritage layers, on the other hand, consist in digitally superimposing graphical documentation directly on the subject it references, following the example of the «Streetmuseum» app by the Museum of London (Ruiz Torres, 2003).

Museums and monumental complexes mostly present these instruments as useful for the general public, however both can play a valuable role in the valorization of the cultural heritage by advancing research and aiding conservation.

In the first place, digital reconstructions of different historical phases highlight the changes in a monumental or archaeological site and therefore offer a clear visual aid to scholars. Furthermore, the process of digital scanning or photogrammetric analysis needed to create virtual models is relatively simple and rapid, thus allowing it to be performed periodically as a part of a conservation survey. In particular, a series of yearly digital reconstructions can help identify structural issues in the architecture or damages in the artwork, while at the same time functioning as a base for virtually completing a restoration and simulating its effects without the risk of harming the monument.

Because of their documental nature, cultural heritage layers as well can become an important tool for academics. In fact, overlaying documents directly on the physical environment they refer to permits direct on-site access to materials that are not always readily available. Successful Augmented Reality apps include archive images among the content they offer, thus facilitating a comparison between the document and the contemporary artwork. Moreover, the virtual copies reunite documentation that, despite regarding a single monument, can be scattered among several archives and libraries, further simplifying the tasks of searching and analyzing documents.

Augmented Reality apps for the cultural heritage often benefit of a companion instrument, a Virtual Museum that provides remote access to the same content created for the app. Once again, this proves to be not only useful for the general public, who can employ it to plan the visit and to remotely explore the monument or museum, but also for researchers. The possibility to digitally experience visiting the cultural institution and accessing the related documents abolishes distances and minimizes costs, allowing information to reach any academics worldwide. This, in turn, increases the chances of finding interesting connections among artifacts with different backgrounds, and even aids transdisciplinary studies.

Furthermore, Augmented Reality apps and Virtual Museums become a self-sustaining source of knowledge in which research results, shared through these technologies, spark new insights, which can be integrated among the contents of the platforms themselves, in an ever-increasing virtuous circle.

In order to advance the investigation on Augmented Reality and Virtual Museums as instruments for visitors and scholars alike, this project proposes as a case study the design of an app for the Alhambra of Granada. The rich stratigraphy of the Islamic palatial complex and the extensive associated documentation offer plenty of content, making this monument an excellent subject for the creation of such a tool.

The application, based on Augmented Reality, is designed to provide a geolocalized map, to help users navigate the monumental complex, as well as digital reconstructions, archive documents, museum objects, interdisciplinary connections and additional options.

As already stated, digital reconstructions offer an important visual aid when analyzing the stratigraphy of a monument and become especially useful in the case of one with a multifaceted history such as the Alhambra. The app provides virtual models of several architectural phases, from the initial palace of Isma’il I to the Christian Reconquista, from the Romanticism to the contemporary building.

The app also employs cultural heritage layers, thanks to which documents from both the Archive and the Library of the Alhambra are superimposed to the surroundings. The task of creating such content section is facilitated by the fact that most of the documentation has already been digitalized and is available on the institutional website of the monumental complex.

A similar technique is used for integrating virtual copies of museum objects in the digital reconstructions, thus allowing visitors to observe the artifact in their original environment and, at the same time, to obtain a realistic idea of the aspect of the furnished rooms. It must be noticed that, in order to do so, tridimensional scansions of the objects are necessary, for the catalogue available on the Colecciones En Red. España website only includes frontal photographs.

Cultural heritage layers also play a fundamental role in highlighting the interdisciplinary connections. During centuries, the Alhambra has been a source of inspiration for artists, writers, photographers and musicians, as well as a subject of study for scientist and mathematicians, which have left plenty of material evidence of their work. Most of this documentation is available through the Archive and Library of the Alhambra and can thus be added to the app. This type of content stresses the influence of the monument, therefore underlining the importance of its conservation; it also encourages research, for it connects topics that may seem distant in time or discipline, hopefully offering interesting insights and evoking new ones.

Finally, additional options include an interactive analysis of the epigraphy of the Alhambra, as well as the possibility to deepen the exploration of construction techniques, court life and similar themes.

The array of possibilities offered by each of the content sections, which incorporate documentary evidence, explanatory videos and edutainment activities, allows the public to organize a visit tailored to their specific needs, including those of scholars invested in studying particular topics. Moreover, the same content is meant to be available through a Virtual Museum, enhancing the visibility of the Alhambra and therefore improving its valorization.

Augmented Reality and Virtual Museums are proving to be effective instruments to communicate existing knowledge to the public in an engaging and personalized way. However, their potential as research aids is underestimated by many cultural institutions, which do not strive to develop platforms useful to scholars. With the proposed app for the Alhambra, this project aims to provide a model for the creation of such tools, emphasizing their role in granting access to documents and encouraging high levels of interdisciplinary and potentially global involvement of the academic community, thus playing a significant role in the creation of knowledge.

Bibliography

MASE, Kenji, KADOBAYASHI, Rieko, NAKATSU, Ryohei (1996), «Meta-Museum. Supportive augmented-reality environment for knowledge sharing», Proceedings of International conference on Virtual Systems and Multimedia, Los Alamitos, IEEE Computer Society Press, pp. 107-110.

RUIZ TORRES, David (2003), El papel de la realidad aumentada en el ámbito artístico-cultural: la virtualidad al servicio de la exhibición y la difusión, Granada, Universidad de Granada.

Colecciones En Red. España (CERES). In: (Fecha de consulta: 09-07-2017)

Recursos de Investigación de la Alhambra (RIA). In: (Fecha de consulta: 09-07-2017)

La vida de las imágenes. Identificación de patrones en la ilustración de las «Metamorfosis» de Ovidio

Paloma Centenera Centenera
UNIR

M.ª Luisa Díez Platas
LINHD-UNED

Fátima Díez Platas
USC

Palabras clave: Patrones, ilustraciones, clustering, recuperación de información, similitud semántica
Keywords: Patterns, illustrations, clustering, information recovery, semantic similarity

  1. Introducción

La Biblioteca Digital Ovidiana (BDO)[1] es el resultado de un trabajo de investigación patrimonial que recoge la información detallada de los ejemplares ilustrados de las obras del poeta latino Publio Ovidio Nasón, publicadas entre los siglos XV y XIX, que forman parte del patrimonio bibliográfico español (Díez-Platas, 2016). La ficha bibliográfico-iconográfica de la Biblioteca Digital Ovidiana proporciona unos datos sobre la ilustración de cada edición y de sus secuelas que permite identificar la creación de una tradición de ilustración de ediciones que traspasa países y grabadores e incluso tipos de texto, porque se basa en la vida de las imágenes usadas para ilustrar el texto.

La información relativa a la iconografía de la BDO es de una gran riqueza ya que se ha estudiado una a una las ilustraciones identificando cada uno de los temas presentes en las mismas. Esta visión desagregada de la información proporciona un conocimiento profundo de cada ítem.

No obstante, la posibilidad de realizar un análisis relacional y agregado de las imágenes como una galería continua y desvinculada de las ediciones , permite extraer información adicional mediante la identificación de patrones relativos a las tradiciones de ilustración de las obras de Ovidio que se han producido a lo largo del tiempo, analizar la incidencia de los temas representados en las distintas ediciones y tradiciones en relación con el desarrollo del texto, y analizar características que puedan influir sobre la ilustración relacionadas con otro tipo de información como los países de edición, los grabadores y los artistas que puede haber detrás de los grabados.

Esta identificación de patrones y nuevos conocimientos que se pueden obtener con el tratamiento de los valiosos datos convierten al libro ilustrado en una entidad viva e interactiva ya que identificando los patrones hacemos hablar al libro a través de sus ilustraciones, mostrando el proceso de figuración del mito de manera desarrollada en el tiempo y en el espacio a partir de la realidad del propio libro.

  1. Modos de ilustración

Desde el siglo XV al XIX, el modo de ilustración de las obras de Ovidio ha adoptado nuevas formas (Díez Platas, 2003) atendiendo a distintos criterios:

  1. Se priman algunos episodios sobre otros
  2. Se seleccionan un número determinado de episodios que permitan resaltar la estructura en libros de la obra o bien, se resalta un episodio que tradicionalmente se considera representativo del libro como es el caso del episodio de Aracne en el libro sexto.
  3. Se opta por ilustrar la mayor cantidad de episodios para reflejar el número de personajes, historias y detalles que Ovidio trasmite en las “Metamorfosis”. La profusión de la ilustración toma forma en el número creciente de grabados para los episodios o en el número de episodios tratados en un solo grabado
  4. Se crean dos tipos de ilustraciones que, aunque convergen en la abundancia de información, divergen en la relación de la imagen con el texto. En el primer tipo, cada fragmento de texto tomado como episodio se relaciona con una imagen o dos y en el segundo tipo, la imagen se convierte en un resumen visual del conjunto completo de episodios que se encuentran en un libro.

Esta información, sirve de base para determinar diversas características en cuanto a la forma y cantidad de ilustración de uno o más episodios y los temas que aparecen en la representación.

Realizando un análisis de la ilustración del episodio de Aracne del libro sexto, ya mencionado anteriormente, se observa que aparece en los primeros incunables del XV en Flandes y tiene tradición medieval, pero en cambio no aparece en el primer incunable italiano y si en su secuela latina más importante. A partir de ahí se imbrica en la serie de ilustraciones más repetidas para las ediciones latinas e italianas de Ovidio en Italia, y aparece después en las ediciones que tienen sólo quince grabados. Por tanto, el episodio de Aracne, uno de los más importantes, aparece con distintas iconografías por diversas causas.

El trabajo que se presenta en esta comunicación, trata de la identificación de «patrones en la ilustración de la “Metamorfosis” de Ovidio», que es una de las obras de Ovidio que más se ha ilustrado y de la que existen muchas ediciones. Los patrones que se identifique serán representados de forma visual, lo que permite una análisis intuitivo y global que facilitará a los investigadores el análisis y establecimiento de conclusiones a partir de los patrones.

Los datos utilizados están disponibles en la BD con 62 ediciones de las «Metamorfosis», un total de   1015 ilustraciones y en las que se representan un total de 3224 escenas.

  1. Objetivos

El objetivo principal es el de establecer relaciones entre distintas ediciones ilustradas de las «Metamorfosis» en función del contenido semántico de sus grabados, el análisis temporal de estas relaciones y su representación visual.

Para alcanzar el objetivo, se acometen las siguientes tareas de análisis e investigación que permitan el desarrollo de una metodología de extracción de información semántica:

  • Se analiza la incidencia de la aparición e ilustración de los distintos temas para identificar relaciones semánticas entre distintas ediciones o formas de ilustración. Se analiza si existe conexión más o menos fuerte entre ilustraciones que cuentan con una mayor o menor número de temas comunes. Para esto se aplican procesos de agrupamiento o clustering de los temas sobre los datos de las fichas bibliográficas de la BDO mediante la aplicación de  técnicas de procesamiento de lenguaje natural para la detección de temas y su agrupamientos basado en distintas medidas de similitud (Wartena & Brussee, 2008) con el soporte de Weka[2] , una herramienta de software libre con una colección de algoritmos de aprendizaje automático para tareas de minería de datos.
  • Se establecen, a partir de los grupos temáticos, las relaciones entre las ediciones que presentan similitudes temáticas en sus grabados de los episodios ilustrados. La fecha de publicación será además un factor importante para analizar la incidencia del componente temporal en las similitudes encontradas. Hay que considerar que los patrones temporales pueden ser tratados como rasgos que hacen posible aproximar conceptos complejos (Bazan, Peters, & Skowron, 2005).
  • Se muestran los resultados del análisis mediante grafos dinámicos que tradicionalmente se usan para representar relaciones entre las entidades que evolucionan con el tiempo e identificar las relaciones más fuertes y su evolución en el tiempo. Se usa un enfoque de minería de datos que permite descubrir patrones evolutivos a partir  del establecimiento de un conjunto de restricciones sobre los datos (Robardet, 2009).  La representación visual de los grafos se realiza con Gephi[3], una herramienta de visualización y exploración de grafos de código abierto que da soporte al estudio de las redes de relaciones, así como a su filtrado temporal.

 

  1. Metodología

Para la investigación, se sigue el proceso de extracción de conocimiento a partir de los datos (Maimon, 2010) (v. fig. 1) y cuyas etapas se describen a continuación:

Image and video hosting by TinyPic
Figura 1 El proceso de recuperación de información en bases de datos (KDD). (Fuente: basado en (Maimon, 2010:3)).

Etapa 1.- Comprensión del dominio de aplicación y planteamiento de objetivos. Establecimiento de patrones temáticos y temporales en las ediciones ilustradas de «Las Metamorfosis» de Ovidio.

Etapa 2.- Selección y creación del conjunto de datos para el análisis.

Etapa 3.- Pre-procesado y limpieza. Para uniformizar los distintos formatos de datos, eliminar datos erróneos.

Etapa 4.- Transformación. Se generan los mejores datos. Se emplean métodos como reducción de dimensión o transformación de atributos.

Etapa 5.- Búsqueda de la herramienta de análisis de datos adecuada en función de los objetivos. Se evalúan las herramientas software disponibles para llevar a cabo el análisis.

Etapa 6.- Elección del algoritmo de análisis. Se selecciona el método específico para buscar patrones.

Etapa 7.- Aplicación del algoritmo seleccionado y obtener resultados.

Etapa 8.- Evaluación. Se evalúan e interpretan los patrones encontrados, respecto a los objetivos fijados inicialmente. Interpretación de los resultados por un experto en el ámbito de los datos.

Etapa 9.- Visualización, integración y análisis de los datos.

 

Bibliografía

BAZAN, J. G., PETERS, J. F., & SKOWRON, A. (2005), «Behavioral Pattern Identification Through Rough Set Modelling», Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing, Springer, Heidelberg, Berlin, pp. 688–697.

DÍEZ PLATAS, F. (2003), «Tres maneras de ilustrar a Ovidio: una aproximación al estudio iconográfico de las Metamorfosis figuradas del XVI», Memoria Artis. Studia in Memoriam M.a Dolores Vila Jato, n.º 1, pp. 247–267.

DÍEZ-PLATAS, F. (2016), «Researching illustrated books in art history: a brief history of the Biblioteca Digital Ovidiana project», Dynamic Research Support in Academic Libraries (1a), Facet Publishing.

ROBARDET, C. (2009), «Constraint-Based Pattern Mining in Dynamic Graphs», Ninth IEEE International Conference on Data Mining, pp. 950–955.

WARTENA, C., & BRUSSEE, R. (2008), «Topic Detection by Clustering Keywords», 19th International Workshop on Database and Expert Systems Applications, pp. 54–58.

[1] .

[2] .

[3] .

Utopías posibles. Potencialidades de lo virtual en el mundo expositivo

Rafael López Guzmán
UGR

Adrián Contreras-Guerrero
UGR

Francisco Montes González
UGR

Yolanda Guasch Marí
UGR

Guadalupe Romero Sánchez
UGR

Iván Panduro Sáez
UGR

Gloria Espinosa Spínola
UAL

José Miguel Morales Folguera
UMA

Palabras clave: exposición virtual, modelado digital, infografías, Arte Virreinal
Keywords: virtual exhibition, digital modeling, infographics, Viceroyalty Art

  1. Objetivos y fundamentación

La exposición que presentamos bajo el título Desde América del Sur. Arte Virreinal en Andalucía atiende a un doble propósito de investigación y transferencia del conocimiento, partes integrales de nuestros intereses[1].

La valoración de los objetos exhibidos, hoy día tratados como secundarios, obligará en muchos casos a reflexionar sobre su estado de conservación y la necesidad de intervenirlos para que sean reubicados en una historiografía del arte más democrática y plural. Para ello proponemos un montaje museográfico pensado para acercar al público los diferentes aspectos culturales que representan estos objetos dentro del heterogéneo patrimonio histórico-artístico de Andalucía.

Pues bien, dentro del mundo de la realidad virtual nuestra exposición se corresponde con el subgénero denominado Virtual Walktrhough (Paseo virtual), ya que lo que ofrece al visitante consiste en una exploración online de la sala de exposiciones, recorriendo diferentes «puntos panorama» que privilegian los ejes visuales más interesantes desde donde se ofrece una vista en 360 grados de la muestra. A nivel técnico estos puntos funcionan como una cámara virtual dentro de la maqueta 3D, lo que en el argot del oficio se llama un «render» o «infografía de tipo esférico». De esas infografías se obtiene el panorama añadiendo los distintos elementos de interactividad como son el zoom dentro-fuera o la visualización arriba-abajo e izquierda-derecha.

Image and video hosting by TinyPic
Figura 1  Levantamiento digital de las instalaciones del Instituto de América Damián Bayón (Santa Fe), sede de nuestra exposición virtual

En este recorrido no hay un orden preestablecido ni unidireccional ya que se puede saltar de una sala a otra según el interés personal de cada uno o volver hacia atrás si es preciso[2]. El carácter inmersivo de la exposición se completa con un cierto «acercamiento» a las obras, pues al clicar sobre ellas se despliega la ficha técnica junto a su imagen y si se desea más información existe la posibilidad de desplegar un comentario adicional de la pieza y una serie de referencias bibliográficas que la han estudiado. Por tanto la lectura es para cada uno personal según lo que se quiera ver/leer y lo que no. Así la persona que está visitando la muestra adquiere un gran protagonismo al convertirse en agente activo: el «no tocar» se convierte en «por favor, toque», y los elementos como catenarias y mamparas protectoras quedan omitidos. Pero aún hay otro beneficio que redunda en el carácter pedagógico de la experiencia virtual y es que las piezas aquí ubicadas, desligadas en cierta manera de su materialidad, pierden parte de su carácter de objeto divinizado en el espacio de demostración que es el museo, para trabarse en un discurso determinado.

En todo ello es esencial el concepto de presencia virtual, es decir la capacidad del usuario de abstraerse de la realidad física donde se encuentra para extrapolarse a la ubicación fingida que le propone la realidad virtual (Shim y Jonghuyun, 2003: 374-386 y Heeter, 1992). La inmersión será tanto más eficaz cuanto la exposición reproduzca la percepción real del individuo, esto es, las relaciones espaciales, de perspectiva, condiciones lumínicas… que captan la atención del visitante pues es poderosa la sensación de «estar sin estar». La interacción en tiempo real en espacios ajustados a la realidad contribuyen a esta ilusión de realismo que se concretan incluso en la diferencia con que el pulido mármol de la sala refleja de manera diferente los objetos expuestos según la perspectiva desde donde se miran.

Image and video hosting by TinyPic
Figura 2 Proceso de modelado digital de la escultura de San Bruno de Pedro Laboria, 1761

Esta sensación de inmersión se refuerza en la versión para móviles de la exposición ya que ofrece una vista en 360º por la que se navega direccionando el propio dispositivo móvil hacia las zonas que se quieren visualizar.

En definitiva, el poder de atracción y las potencialidades de las exposiciones virtuales son muy interesantes. A la rentabilidad a largo plazo de estas muestras que sacan el máximo provecho del esfuerzo y coste de la exposición, pues pueden mantenerse indefinidamente en el tiempo, se unen otros atractivos como la capacidad que tienen para relacionar objetos de forma integrada, cosa que no es posible en el tiempo necesario y estructurante del discurso literario, así como la posibilidad de introducir en ellas objetos que por sus características físicas serían imposibles de plantear en el mundo analógico. Todo ello redunda también en las condiciones de conservación de las piezas, requerimiento que deja de estar reñido por fin con las iniciativas de difusión y accesibilidad de las mismas, evitando los costos de traslado, seguros y posibilidades de deterioro siempre imprevistas.

  1. El discurso expositivo. Estructura y contenido

El proyecto museológico se organiza en tres grandes capítulos cuyo discurso vamos a esbozar al tiempo que señalamos las potencialidades de una muestra virtual como esta.

2.1. Conociendo América del Sur. Viajes y tornaviajes. Conquista y sincretismo

El primer bloque arranca con una pieza de singular importancia histórica y simbólica ubicada en la entresala de acceso: la Virgen de los Mareantes, retablo pictórico ejecutado por Alejo Fernández hacia 1535 y que situado en la Capilla de la Casa de la Contratación era la advocación a la que se encomendaban los viajeros que hacían la carrera de Indias. Dicha pieza ha sido recientemente objeto de disputa entre el Ayuntamiento de Sevilla que gestiona parte de los Reales Alcázares y Patrimonio Nacional que defiende su propiedad sobre la obra y quiso trasladarla a Madrid para una exposición temporal en el año 2014. La sospecha de que este traslado podía desembocar en su estancia permanentemente en la capital, como parte del montaje del nuevo Museo de Colecciones Reales, llevó a ambas instituciones a pleitear por su titularidad. En estas circunstancias de recelo en torno al retablo y con el asunto de su propiedad aún sin esclarecer aún a día de hoy, solicitar su préstamo para una exposición real sería una empresa infructuosa. Ésta es por tanto otra de las ventajas de nuestro montaje virtual.

Una vez introducido el tema de la exposición con la Virgen de los Mareantes que actúa como nexo de unión entre ambas orillas del Atlántico, la primera sala comienza con una colección de mapas que son la plasmación visual de un proceso gradual y esforzado: el conocimiento de América. Vemos así como la vaga masa de tierras sin delimitación inicial va «tomando forma» a lo largo del tiempo gracias a la labor de diferentes navegantes, exploradores y cartógrafos. Este conocimiento de lo americano se verá mediado por el proceso de conquista política y espiritual que se ejemplifica a continuación en la serie de pinturas que ilustran la vida de  Cristóbal Vaca de Castro. Estos seis cuadros al óleo son otro de los alicientes de la exposición pues es la primera vez que se ponen al alcance del público de forma completa esta interesante serie prácticamente inédita que se conservan en la Abadía del Sacromonte (Granada).

Image and video hosting by TinyPic
Figura 3 Imagen 3D del Relicario de la Virgen de Copacabana, anónimo peruano ca. 1650-1670

Cierran la sala una escogida muestra de dibujos, pinturas y esculturas nos muestran a través de sus autores los diferentes encuentros, viajes, tornaviajes e interacciones culturales. De nuevo vuelven a aflorar aquí las bondades de lo virtual pues como ya hemos dejado dicho anteriormente sería imposible plantear en la realidad física el desmontaje y traslado de toda la sección central de la sillería coral de Málaga. Nos posibilita por tanto esta herramienta establecer un diálogo interesantísimo entre la magna obra catedralicia y otras piezas que como ella fueron realizadas por artistas retornados que dejaron su legado artístico a ambos lados del Atlántico.

2.2. Tesoros viajeros. Mecenazgo y coleccionismo americanos en Andalucía

Donaciones y envíos de familias pudientes con origen en Andalucía pero emigradas a América fueron creando tesoros suntuarios que enriquecieron espacios de culto y oratorios privados de nuestra tierra. Estos objetos, producidos en el Nuevo Mundo, contribuían a ensalzar su status social de cara a sus conciudadanos y familiares. En nuestra exposición se muestran los retratos de algunos de estos mecenas como son el arzobispo Moscoso y Peralta, oriundo de Arequipa (Perú) que vino a terminar sus días en la diócesis de Granada durante los difíciles días de la invasión napoleónica, y el de Alonso González de la Pava natural de la sierra norte sevillana que enriquecido con la extracción de plata en Potosí legó todo su capital a un convento de Guadalcanal (Sevilla) cuando murió.

Image and video hosting by TinyPic
Figura 4 Vista del montaje de la sala 2, «Tesoros viajeros»

Entre los objetos conservados destacan los ajuares religiosos llegados por donaciones de particulares o formando parte de los equipajes de eclesiásticos que vuelven a la Península, y que en ocasiones son piezas de una enorme calidad, aunque las que hoy se conservan representan una mínima parte si atendemos a todas las que se relacionan en la documentación de archivo. Precisamente por su carácter de tesoro, todas las piezas mostradas en esta segunda sala de nuestro montaje suelen estar a buen recaudo, alejadas de la vista pública -excepto la lámpara de Víznar y la custodia de Espartinas-, lo que no hace sino redundar de nuevo en las ventajas de seguridad y conservación que ofrece una exposición virtual.

2.3. Imaginario devocional y espiritualidad indiana

La vinculación espiritual de Andalucía y América del Sur se fundamenta a partir del estrecho contacto cultural que existió entre ambos territorios durante la época virreinal. Religiosos, funcionarios y comerciantes indianos fueron responsables de introducir nuevos cultos, surgidos en América, a través del envío de imágenes sagradas y relaciones impresas a sus lugares de origen. De esta forma, no tardaron en circular las prodigiosas vidas de santos foráneos y las insólitas historias de apariciones marianas.

Resaltamos en este caso el papel compilador de la tercera y última sala. En ella se ofrece al visitante un escogido abanico de advocaciones que dan buena cuenta de esa espiritualidad americana «de importación» que en cierto modo rompió la unidireccionalidad de los trasvases religiosos implantados tras la conquista. Desde la Virgen de Chiquinquirá a Santa Rosa de Lima, las piezas aquí contenidas nos hablan de un sincretismo cultural de ida y vuelta ejemplificado en escultura, pintura, grabados y literatura escrita. Resaltamos por razones de inaccesibilidad los lienzos de Domingo Martínez ubicados en el extinguido convento de la Encarnación en Baeza, y el de la Virgen de Copacabana de la clausura sevillana de Santa María de Jesús, pues para fotografiarlos y ofrecerlos al público fue necesaria la expedición de permisos especiales.

Image and video hosting by TinyPic
Figura 5 Vista del montaje de la sala 3, «Imaginario devocional»

 

 

 

 

Bibliografía

BELLIDO GANT, María Luisa (2001), Arte, museos y nuevas tecnologías, Gijón, Trea.

SHIM, W. y JONGHUYUN, G. (2003), «Designing for presence and performance: the case of the virtual fish tank», en AA.VV., Fourth international workshop on presence, MIT Press, Massachusetts, v. 12, pp. 374-386.

[1] Se trata de una de las actividades desarrolladas por el proyecto de investigación MUTIS. Patrimonio artístico y relaciones culturales entre Andalucía y América del Sur (Ref. HAR2014-57354-P).  Disponible en: .

[2] Atendiendo a la libertad de movimientos que ya había señalado Antonio M. Battro para este nuevo perfil de usuario del museo. Cfr. (Bellido, 2001: 250).

Design for accessibility: inclusive design experiences

Mario Buono
University of Campania “Luigi Vanvitelli”

Sonia Capece
University of Campania “Luigi Vanvitelli”

Francesca Cascone
University of Campania “Luigi Vanvitelli”

Palabras claves: diseño inclusivo, percepción sensorial, transferimento tecnológico, humanidad digital, experiecia cultural
Key words: inclusive design, sensory perception, technology transfer, digital humanity, cultural experience

Abstract

From the current reconnaissance of the conditions of fruition and accessibility, it is evident that until nowadays also the objects of use are designed and made irresponsibly. The major problem is that scientific and technological progress has a power of attraction and those who design forget a major aspect: move towards other people.

The European Community with the 2000-2020 program-strategic lines has also confirmed the adoption of regulatory measures to ensure the integration of the principle of accessibility and the «design for all» in the education and training programs for the interested professions to promote the development of the EU assistive technology market.

The contribution illustrates the experimentation work in progress, regarding to the configuration of a new multisensory system, designed to restore the formal and figurative perception of images, through aptic sensations that can enhance the educational experience of children with visual-sensory special needs.

In order to optimize, innovate and strengthen the design process, the research activities concerned the deepening of knowledge and the identification of design principles and methods of social inclusion – tangible and intangible – in a connection route and integration between different disciplinary languages.

In this path through the discipline of the Industrial Design and from the methodological experience and the design experiments, it has been possible to implement an action of communication, interaction and connection between the different disciplinary areas through a dynamic and inclusive vision.

 

  1. Introduction

The new multisensory system for school learning has been conceived as part of a didactic design exercise faced during the master’s degree course in «Design for Innovation»[1] and was subsequently deepened and developed during the graduate thesis in the area of Computer and Electronics Engineering at the University of Campania “Luigi Vanvitelli”[2].

The aim of the work was to provide an answer related to diversity, through the realization of solutions to respond to visually special needs, in relation to image decoding and content understanding.

In summary, the developed concept represents a technological product-system that can help the learning and acquisition of images through tactile perception. The system consists of an aptic cover composed of a matrix of movable and tactile «mini-keys» that is overlapping to a portable touchscreen. In addition, the system has an integrated audio system, an external Qwerty and/or Braille headboard, and a printer for the production of relief media in reusable material.

The purpose was to provide a tool for the perception of two-dimensional content of virtual images, promoting the school learning and the cultural experience of visually-impaired children. The system allows interpreting, creating and manipulating images by press on «mini-keys», comparable to a set of «touch pixels». This allows us to mediate intangible screen contents such as iconographic and photographic images, in the physical mode of the tactile device, and vice versa, by favouring a creative and responsive inclusion approach to improving learning experience.

The activities involved, at a later stage, the development of the implementation system, through the elaboration of a software capable of reading the images of the touchscreen, connected to the matrix of «mini-keys» with micro sensors and a transducer. This solution, depending on the wavelength of the color transmitted by the display images, allows you to operate according to different heights, the raising or lowering of the «mini-keys», for the configuration of various images that are sensitive to touch[3].

 

 

 

 

  1. Inclusive Design Experiences: New Aptic Interface System

In the contemporary society, considering the relational and communicative aspects of users cannot ignore to imagine a reality configured in the virtual and free communication of the word wide web (Rifkin, 2003).

An accurate analysis of psycho-pedagogic specificities has shown that attention to children in their early years is crucial for their future cognitive and behavioural development, and as the relationship with the physical and social environment, represents the result of an active exchange between external factors and their core knowledge (Barrouillet, 2015: 1-12).

From the research emerged the need to conceive a new system, which interface was designed to return the formal and figurative perception of images, through aptic sensations, that can enhance the educational experience of children with visually specific needs.

At present, consider the relational and communicative aspects of individuals, cannot ignore imagining a reality configured in the virtual and digital systems. Currently, special voice synthesis software such as Jaws for Windows, which uses the audio system integrated to the computer to drive the user in the Windows environment allows reading the screen, and accessing and browsing the content on the web (other similar software are for example Windows Eyes, Out Spoken, Virgo). Although, these programs are well integrate with Braille language systems, they have limits in image communication, since they only allow voice synthesis.

The global issues for the development of communication and the programs for school learning, introduce to a greater extent information technology, which are tools of information, knowledge, and learning. According to this view, the analysis of the special needs of users with sensory issues, as blind and visually impaired persons, it brings according to a holistic view an improvement in inclusion and quality of experience for everyone.

In the design stage, the study of emotions and perceptions is relevant as they affect actions of people, their expectations, and their plans, with respect to the products they meet and which they relate.

«In fact, adopting the new way of seeing the user, the designer becomes an observer who, thanks to his own sensitivity and skills, must be able to interpret the active story of people» (Rizzo, 2009)[4].

Therefore, the inclusive methodology has become a tool capable to transfer, through scientific references, logic and systemicity to the design of the new interface system for school education.

A design methodology that placed man at the center of the design process and in which the role of the designer becomes complex because, in addition to providing a formal value to the product and being a knowledgeable technician, he must be an attentive observer of the reality surrounding him to interpret the experience and the lived of people by also using the support of cognitive sciences.

In order to configure the new multisensory interface system, it was defined the methodological-design framework. It was carried out through the mapping of needs and the identification of the target from the study of statistical and regulatory requirement data, regarding the typologies and the distribution of sensory disabilities, further to the phases of sensorial evolution of children and their learning moments. In addition, the national-community regulations was analysed and have been deepened the types of disability to which the project was supposed to respond.

From the verification and interpretation of results, it was defined the framework of the requirements relating to consolidated and new needs. As consolidated needs we can mention the mastery of the self, the need for assistance in the moment of learning and the perception of security and support for orientation in surrounding environments. While, as new needs, we could consider the need to interact through the web, interpret and understand the iconographic and photographic images. These first results led to the definition of a brief design based on the features of the experience such as sensitivity, cognitive process, tactile-auditive perception, multisensoriality, curiosity education, the use of computer communication systems such as the web and the relative limits of understanding of iconographic content, and illustrated and photographic images. Subsequently, a mapping and analysis of inclusive technology systems and auxiliary devices for users with specific needs of visual type were developed. With the configuration and compilation of analytical tools, a case study comparison was made, highlighting the critical issues.

Specifically, the evaluation was based on Universal Design principles: equitable use (usable by people with different abilities), flexibility (adaptable to different personal preferences and abilities), simplicity and intuition (ease of understanding regardless of user experience, knowledge, language skills or current concentration level), perceptiveness (information required regardless of context conditions and user sensory abilities), tolerance for error (which minimizes hazards and adverse or accidental actions), low physical effort (usable with minimal fatigue), size and space for approach and use (appropriate size for use and manipulation, regardless of body size, posture or mobility). (Keates, 2007: 12). In addition, based on the Universal Design approach, and the analogues Universal Usability, Design For All, Inclusive Design and the latest applications for ICT systems, the research followed a holistic and inclusive process based on User-centered design. It adapts the guidelines and standards through interactive developments and focusing on users with different accessibility and usability requirements, process development phases, through empirical evaluations focused on the entire user experience (Schulz, Fuglerud, Arfwedson, Busch, 2014: 46).  Therefore, desk research was verified on field through surveys, reports and interviews with experts responsible for the education of children with visual specific needs and experts working in new technologies.

  1. Conclusions

The experimentation activities carried out, and currently underway, highlights the importance of implementing an approach in a multidisciplinary and intersectoral way, allowing a wide view of the content and the context of investigation.

Image and video hosting by TinyPic
Figura 1 Design prototype of  Ha.D. project, developed during the university course Design e Innovazione held by Professor Mario Buono, by the student designers Carolina Amorino, Francesca Cascone, Salvatore Iavarone, 2013

Therefore, from the integration of the analyses carried out according to a design-oriented perspective, to the engineering implementation of the aptic interface implementation system, it was possible to reach synergistically the first results of the research. The system is currently in process of testing, so further developments can provide guidance on implementing new system configurations and implementations in response to the specific needs of blind people in the acquisition experience and imagines interpretation. The whole set of research actions may constitute hypotheses of technology transfer in different disciplines and areas of application. The activities will be carried out in line with the Horizon 2020 European Development Plan for the growth of innovative, inclusive and reflective societies[5].

References

BARROUILLET, P. (2015), «Theories of cognitive development: From Piaget to today», Developmental Review, vol. 38, pp .1–12.

Horizon 2020, the next funding programme for EU research, 2014-2020.

KEATES, S. (2007), Designing for Accessibility: a business guide to countering design exclusion, Mahwah, New jersey, United States of America, Lawrence Erlbaum Associatetes, Inc., p. 12.

RIFKIN, J. (2003), Economia all’Idrogeno, la creazione del Wordwide Energy Web e la redistribuzione del potere sula terra, Milano, Mondadori.

RIZZO, F. (2009), Strategie di co-design. Teorie, metodi e strumenti per progettare con gli utenti, Milano, Franco Angeli.

SCHULZ T., FUGLERUD K., ARFWEDSON, H., BUSCH, M. (2014), «A Case Study for Universal Design in the Internet of Things», Universal Design 2014: Three Days of Creativity and Diversity, Proceedings of the International Conference on Universal Design, Amsterdam, Netherlands, IOS Press BV, p. 46.

[1] Master’s degree course in Design per l’Innovazione, University of Campania “Luigi Vanvitelli”, Ha.D. project, developed during the university course “Design e Innovazione” held by Professor Mario Buono, by the student designers Carolina Amorino, Francesca Cascone, Salvatore Iavarone, 2013.

[2] Bachelor’s degree course in Ingegneria Elettronica e Informatica, University of Campania “Luigi Vanvitelli”, Interface for the visually impaired: Ha.D. design of the implementation system, development of degree thesis by Datiana Cascone, supervisor Professor Salvatore Pirozzi, 2015.

[3] Datiana Cascone (2015), Interface for the visually impaired: Ha.D. design of the implementation system, degree thesis in “Ingegneria Elettronica e Informatica”, Università degli Studi della Campania “Luigi Vanvitelli”, supervisor Professor Salvatore Pirozzi.

[4] Rizzo, F. (2009), Strategie di co-design. Teorie, metodi e strumenti per progettare con gli utenti, Franco Angeli, Milano.  [Loosely translated by the authors].

[5] Horizon 2020, the next funding programme for EU research from 2014-2020.

Observatorio de la cultura contemporánea europea. Open Data, cartografías visuales y geolocalización

Maria Cuevas Riaño
Universidad Complutense de Madrid

Antonio Labella Martínez
Universidad Complutense de Madrid

Palabras clave: observatorio cultura; open data; cartografía; geolocalización; arte contemporáneo
Keywords: cultural observatory; open data; visual complexity; geolocation; contemporary art

En las sociedades contemporáneas, el sector cultural ocupa un lugar protagonista. Sus contenidos están presentes y se difunden por los medios de comunicación tradicional (prensa, televisión) y los de nueva creación (plataformas digitales, redes sociales, blogs, internet). El campo de acción de las políticas culturales que organizan el sector es muy extenso, y al mismo tiempo sus límites son difusos y discutidos. El conjunto de actividades, proyectos e intervenciones que realizan los agentes culturales –instituciones y administraciones públicas; profesionales de la cultura; y el tercer sector (ONGs, asociaciones y fundaciones culturales sin ánimo de lucro)- muestran diferentes formas de hacer y pensar lo político, social, económico y cultural de una comunidad y una época. En la actualidad, el sector cultural es sin lugar a dudas muy productivo y tiene una posición relevante en el PIB nacional y europeo.

  1. Objetivos

La finalidad de este trabajo es proporcionar una herramienta conceptual y digital útil para un conocimiento objetivo de la situación de la cultura contemporánea en Europa. Nos proponemos mostrar una visión global de cómo está estructurado actualmente el ámbito cultural europeo. Comprender la diversidad de agentes culturales presentes y la complejidad de las actividades vinculadas a la cultura que se desarrollan en cuanto a creación, producción y difusión. Identificar las políticas culturales nacionales e internacionales en uso y los modos de gestión y financiación que utilizan a nivel autonómico, nacional e internacional. Identificar y describir las principales líneas de actuación que contribuyen a impulsar y modernizar el ámbito de la cultura.

Se trata de proporcionar una visión de la cultura contemporánea europea, a través de indicadores estadísticos y herramientas de visualización de datos y geolocalización. Presentar cartografías visuales que sirvan como instrumento para conocer mejor el valor social de la cultura y su carácter como fuente generadora de riqueza y de desarrollo económico en la sociedad española y europea. Proporcionar un canal cultural actualizado, accesible por Internet, con información estadística de datos y metadatos normalizados referentes a la oferta artístico-cultural europea. Facilitar una herramienta cartográfica útil para repensar y documentar la actualidad cultural de Europa.

 

  1. Fuentes de información. Open Data

Para la elaboración de este proyecto se ha acudido a fuentes de información estadística internacionales, europeas y nacionales. Se han consultado los informes disponibles en el Instituto de Estadística de la UNESCO (UIS) sobre estadísticas mundiales en los campos de la educación, la ciencia y la tecnología, la cultura y la comunicación (v. fig. 1). Se han incorporado indicadores culturales europeos procedentes de la base de datos DATABASE disponible en la Web de la Oficina Estadística de la Unión Europea (EUROSTAT) (v. fig. 2). Se ha utilizado el sistema de información COMPENDIUM elaborado por el Comité de Cultura del Consejo de Europa que muestra cómo cada país europeo organiza administrativamente su política cultural y cuáles son sus retos y estrategias.

Image and video hosting by TinyPic
Figura 1 UNESCO (UIS), Instituto de Estadística de la UNESCO. Publica información en formato tablas sobre  indicadores, metodologías y estándares que hay que tener en cuenta para valorar la contribución del sector cultural a la política económica y social de los países

Image and video hosting by TinyPic
Figura 2 EUROSTAT. La Oficina Europea de Estadística de la Comisión Europea publica datos culturales sobre la Unión Europea ordenados según difentes criterios. A través de su página se web se puede acceder a enlaces a datos estadísticos de todos los países de Europa [6]. Facilita también herramientas para seleccionar y visualizar datos de forma selectiva

En España, se ha utilizado como referencia el sistema digital e interactivo que utiliza el Ministerio de Educación, Cultura y Deporte para almacenar y difundir en internet los resultados estadísticos del ámbito cultural, CULTURABase (v. fig. 3). Se incluye también información proporcionada en el Anuario de Estadísticas Culturales 2016, elaborado por la Subdirección General de Estadística y Estudios de este Ministerio. Siempre que ha sido necesario, se ha incorporado también información de otras fuentes estadísticas oficiales basadas en la aplicación INEbase elaborada por el Instituto Nacional de Estadística (INE): desglose de indicadores culturales clasificados por comunidades y ciudades autónomas.

Aun así, los resultados reflejados en este proyecto van más allá de una mera recopilación de datos estadísticos disponibles y difundidos en el ámbito cultural. Se incorporan, además otras bases de datos, directorios, estadísticas, planes de acción e informes que permiten valorar el fenómeno cultural en un entorno global. En este sentido se ha manejado información procedente del Ministerio de Asuntos Exteriores y de Cooperación (MAEC), el  Ministerio de Educación, Cultura y Deporte (MECD), el Instituto Cervantes, Acción Cultural Española (AC/E), la Agencia Española de Cooperación Internacional para el Desarrollo (AECID), el Real Instituto Elcano, la Fundación Promoción Social de la Cultura… Por otra parte, para su elaboración se han consultado plataformas digitales específicas que publican datos significativos que permiten valorar el hecho cultural de forma más compleja.

Image and video hosting by TinyPic
Figura 3 CULTURABase. Base de datos estadísticos que promueve el Ministerio de Educación, Cultura y Deporte para difundir información sobre el sector cultural en España

  1. Metodología

El estudio se estructura en dos bloques. «En el primero» se analizan las magnitudes económicas, los modelos de negocio, gestión y funcionamiento que proponen, y los canales de financiación pública y privada (ayudas, subvenciones, becas, premios…) a tener en cuenta en la observación y definición contemporánea del sector cultural y su impacto en la economía global. Se incluyen resultados económicos comparativos, cualitativos y estadísticos, relativos a empresas del sector.

«En el segundo bloque» se establecen las áreas y sectores tradicionales y emergentes que son prioritarios para el estudio de la cultura contemporánea: formas, prácticas, productos y procesos culturales. Se proporcionan indicadores relativos a equipamientos, infraestructuras, actividades y recursos. Se incluyen, además, prácticas culturales asociadas a la producción y consumo (industrias culturales) y otras prácticas relacionadas con el patrimonio inmaterial. Se pretende hacer uso de categorías y clasificaciones homologadas internacionalmente en  el ámbito de la cultura. Se trata de incorporar referentes comunes que hagan posible la comparación de los resultados.

  1. Representación e interpretación de datos. Cartografías visuales y geolocalización

Para una correcta interpretación de los resultados, y debido a la elevada variedad de fuentes y procedimientos utilizados, a las principales representaciones visuales de la información, se les incorporan las directrices que han sido consideradas para su elaboración, su periodo de referencia, el ámbito cultural objeto de estudio y una breve descripción de su contenido. Se les añaden, además, unas notas metodológicas que explican los criterios utilizados para acotar los datos que utilizan, la procedencia de las fuentes de datos incluidas y sus estructuras. Finalmente, se añaden unas notas resumen que ayudan a interpretar y comprender los resultados obtenidos.

  1. Resultados

La propuesta que presentamos propone mostrar nuevos patrones y conexiones dentro del sistema complejo de datos de la cultura europea que sirvan para obtener nuevas claves que definan un espacio común desde donde puedan emerger nuevas interpretaciones y sentidos del sector cultural:

  • Proponer una definición de la cultura contemporánea basada en la información semántica relacionada con la cultura que circula en las redes y que tiene su origen en las instituciones que organizan la cultura contemporánea y en los eventos y actividades (congresos, encuentros, conferencias, talleres…) que se desarrollan en torno a ella.
  • Proyectar / prototipar modelos en red de información cultural basado en estándares, protocolos y normativas reconocidas internacionalmente.
  • Generar una herramienta de investigación colaborativa de gestión de datos e información que sirva para valorar las industrias culturales en términos económicos, sociales y culturales.
  • Proyectar / prototipar rastreadores y modelos de geolocalización de datos relacionados con la cultural que sirvan para localizar puntos de interés y establecer recorridos gráficos significativos de acuerdo a criterios específicos.

Bibliografía

LIMA, Manuel (2011), Visual complexity: mapping patterns of information, New York, Princeton Architectural Press.

LIMA, Manuel (2014), The book of Tress. Visualizing Branches of Knowledge, New York, Princeton Architectural Press.

LIMA, Manuel (2017), The book of Circles Visualizing Spheres of Knowledge, New York, Princeton Architectural Press.

Referencias electrónicas

UNESCO – UIS. Instituto de Estadística de la UNESCO – UIS. En  <http://data.uis.unesco.org/> (Fecha de consulta: 15-07-2017).

EUROSTAT, Base de datos Europea con información específica de cultura. En <http://ec.europa.eu/eurostat/data/database> (Fecha de consulta: 15-07 -2017).

COMPENDIUM, Cultural Policies and Trends in Europe. En <http://www.culturalpolicies.net> (Fecha de consulta: 15-07-2017).

CULTURABase, Base de datos Española con información estadística sobre el sector cultural producida por el Ministerio de Educación, Cultura y Deporte. En: <http://www.mcu.es/culturabase/cgi/um?L=0> (Fecha de consulta: 15-07 -2017).

Anuario de Estadísticas Culturales 2016. En: <https://www.mecd.gob.es/servicios-al-ciudadano-mecd/estadisticas/cultura/mc/naec/portada.html> (Fecha de consulta: 15-07-2017).

EUROSTAT, Enlaces a las políticas culturales de cada uno de los países miembros de la Unión Europea. En <http://ec.europa.eu/eurostat/web/culture/links> (Fecha de consulta: 15-07 -2017).

ASSMANN, J., BREUNINGER, H., & SCHROEDER, G. (2005), «Teoría de la cultura : un mapa de la cuestión. Fondo de Cultura Económica» En:  <https://dialnet.unirioja.es/servlet/libro?codigo=7657&utm_source=cisne.sim.ucm.es&utm_medium=libro&utm_campaign=Dialnet_Widgets> (Fecha de consulta: 15-07 -2017).

BUENO, G. (2004), «El mito de la cultura: ensayo de una filosofía materialista de la cultura». En: <https://dialnet.unirioja.es/servlet/libro?codigo=641800&utm_source=cisne.sim.ucm.es&utm_medium=libro&utm_campaign=Dialnet_Widgets> (Fecha de consulta: 15-07-2017).

Council of Europe, Eric. (s. f.). Compendium of Cultural Policies and Trends in Europe – european culture policy database. En: <http://www.culturalpolicies.net/web/index.php> (Fecha de consulta: 22-06 -2017).

ESSnet-Culture final technical report -a6518128-69b3-4d89-82b8-060a3ad0d1d5. (s. f.). En: <http://ec.europa.eu/eurostat/documents/341465/3199631/essnet-culture.pdf/a6518128-69b3-4d89-82b8-060a3ad0d1d5> (Fecha de consulta: 13-06-2017).

GROYS, B. (2005), «Sobre lo nuevo: ensayo de una economía cultural. Pre-textos» En  <https://dialnet.unirioja.es/servlet/libro?codigo=247025> (Fecha de consulta: 13-06-2017).

Las_Industrias_Culturales_Una_mirada_hacia_un_enfoque_organizacional_y_administrativo.pdf. (s. f.). En:  <http://s3.amazonaws.com/academia.edu.documents/34593117/Las_Industrias_Culturales_Una_mirada_hacia_un_enfoque_organizacional_y_administrativo.pdf?AWSAccessKeyId=AKIAIWOWYYGZ2Y53UL3A&Expires=1497870872&Signature=Of0ZPYpws6s6rcfT6IzNK8GSPAw%3D&response-content-disposition=inline%3B%20filename%3DLas_Industrias_Culturales_Una_mirada_hac.pdf> (Fecha de consulta: 19-06-2017).

A caballo entre el verso y las humanidades digitales. La evaluación de herramientas como modo de aprendizaje en el aula

Clara Isabel Martínez Cantón
UNED

Pablo Ruiz Fabo
UNED

Borja Navarro Colorado
Universidad de Alicante

Palabras clave: encabalgamiento, automatización, enseñanza, métrica
Keywords: enjambment, automatization, teaching, metrics

La creciente digitalidad ha cambiado el modo en el que entendemos las humanidades, impactando directamente en los ámbitos de la investigación y la educación. Sin embargo, en nuestro país los programas y cursos de Humanidades Digitales no son todavía demasiado abundantes. Todavía no existe apenas títulos de grado o postgrados oficiales en HD[1], si bien las llamadas «competencias digitales» son consideradas casi siempre como un área de conocimiento transversal. En el programa del Grado de Lengua y Literatura Españolas de la UNED, la universidad con mayor número de alumnos en España, cuya enseñanza se cursa a distancia, no existe un objetivo dedicado oficialmente a la tecnología. No obstante, la memoria de verificación sí presenta los siguientes objetivos transversales: «CT2A4 – Comunicación y expresión matemática, científica y tecnológica (cuando sea requerido y estableciendo los niveles oportunos); CT2B1 – Manejo de las TIC» (UNED, 2014).

Esta comunicación presenta una experiencia docente llevada a cabo en 2016-2017 en la asignatura de «Estilística y métrica españolas» de la UNED. En ella se ofreció a los estudiantes la posibilidad de participar en la anotación métrica de un amplio corpus de sonetos, introduciéndoles mediante charlas y debates en las nociones fundamentales de las Humanidades Digitales e informándoles de las actividades de investigación y evaluación de herramientas que eran posibles gracias a la anotación del corpus en el que estaban trabajando.

  1. Métrica y su análisis computacional en Humanidades Digitales

La naturaleza eminentemente formal del análisis métrico lo hace un campo propicio para su tratamiento computacional en proyectos de HD (Birnbaum & Thorsen, 2015; Delente & Renault, 2015; Río Riande, González-Blanco, & Martínez Cantón, 2015).

El procesamiento del lenguaje natural (PLN) ofrece grandes posibilidades para este tipo de análisis métrico, ya que las reglas de definición lingüística permiten llevar a cabo análisis y extracción automática de grandes cantidades de información de un corpus de textos. Ya existen muchas tecnologías útiles para el estudio de la desde este punto de vista y partiendo de un enfoque lingüístico, más que métrico.

Centrándonos exclusivamente en la métrica española, la investigación más relevante son los estudios de escansión silábica y detección de acentos realizados por Navarro Colorado (2017) y los trabajos en generación automática de poesía que sigue patrones métricos de Gervás (2000, 2015).

  1. Aprendizaje de Humanidades Digitales a través de la anotación de un corpus de sonetos

La experiencia docente se lleva a cabo con estudiantes sin ninguna experiencia en los métodos y actividades de las Humanidades Digitales, y quiere añadir un aspecto activo y colaborativo a la asignatura en la que ha sido puesta en marcha. La experiencia se asienta principalmente en dos tipos de actividades:

  1. Webconferencias con expertos investigadores de Humanidades Digitales y PLN. Se introduce a los estudiantes en el mundo los métodos y herramientas de las HD utilizados en el ámbito de la poesía y la métrica, sobre los que versa la asignatura.
  2. Anotación manual de un corpus de sonetos, anotando las siguientes características: escansión silábica, acentuación del verso y encabalgamiento. Los poemas anotados serán utilizados para la evaluación de herramientas de análisis métrico y para el análisis de encabalgamientos. Las herramientas que van a ser evaluadas son presentadas por sus propios creadores en las webconferencias que reciben.

Esta experiencia docente busca hacer converger la enseñanza y la investigación, exponiendo a los estudiantes cómo se realiza una investigación en HD y los resultados obtenidos con su corpus manualmente anotado.

  1. 1. El corpus y su anotación

El corpus está basado en dos colecciones públicas de antologías de sonetos, disponibles a través de la Biblioteca Virtual Cervantes (García González, 2006b, 2006a). La primera colección recoge 1088 sonetos de 477 autores del siglo XV al XVII y la segunda recoge 2673 sonetos de 685 autores del siglo XIX. Para preparar el corpus se hicieron scripts de bajada de los poemas, para limpiar el código HTML y para extraer las fechas de nacimiento y muerte de los autores. Además, se desarrolló un script para crear, para cada poema, una plantilla para la anotación de cada una de las características métricas que nos interesaban, tal y como se muestra en la Figura 1.

A los alumnos se les propuso esta actividad de análisis métrico como Prueba de Evaluación continua voluntaria, en la que cada uno debía analizar según la plantilla y la guía propuesta un total de 6 sonetos.  Para realizar la anotación se dio a los estudiantes una «Guía» que puede ser consultada, junto con una carpeta de muestra de seis sonetos, y un video tutorial para la realización de la anotación, en el siguiente sitio:
.

Image and video hosting by TinyPic
Figura 1 Plantilla para la anotación de sonetos

2.2. Las herramientas que se evaluaban

Los estudiantes saben en todo momento, gracias a las webconferencias realizadas por expertos, que su anotación de sonetos dará lugar a un corpus anotado manualmente que servirá para la evaluación de dos herramientas diferentes:

  1. Herramienta de escansión silábica y detección de acento versal en endecasílabos (Navarro-Colorado, 2017) (la herramienta ya ha sido anteriormente evaluada).
  2. Una nueva herramienta desarrollada por Ruiz Fabo y Martínez Cantón (presentada en el congreso de DH2017) que ha sido diseñada para detectar automáticamente encabalgamientos y sus tipos en poesía española.

2.3. Programa de charlas y debate con expertos

Las charlas han sido llevadas a cabo por los firmantes de este artículo, así como otros expertos en HD, abordando temáticas desde la introducción a las HD, qué es el PLN, la aplicación de estos métodos y herramientas a la poesía, hasta la presentación de cómo se evalúan las herramientas utilizando un corpus anotado manualmente, y los resultados de esas herramientas. Las charlas se encuentran disponibles online en la web institucional de la UNED, Cadena Campus: .

2.4. Evaluación de estudiantes

Las competencias adquiridas mediante esta experiencia docente están siendo evaluados conforme a la siguiente rúbrica:

DIMENSIÓN CRITERIOS INDICADORES
1. Planificación Adecuación Información sobre la actividad de innovación
Satisfacción Organización de la actividad de innovación
2. Desarrollo Adecuación Concordancia con la planificación
Satisfacción Aspectos didácticos
Aspectos relacionales
3. Resultados Adecuación Tasa mínima de resultados de aprendizaje
Satisfacción Satisfacción del alumnado con la actividad docente
Eficiencia Contribución al aprendizaje y la motivación del alumnado
4. Orientación a la

innovación

Adecuación Contenidos innovadores
Satisfacción Percepción del alumnado de la innovación en la actividad

Los instrumentos que estamos utilizando para aplicar esta rúbrica han sido un cuestionario de satisfacción (disponible en ) y las calificaciones obtenidas. Cada indicador se concretaba con una serie de descriptores específicos para las charlas y para la actividad de marcado. No se presentan aquí por razones de espacio.

  1. Conclusiones

A través de esta experiencia hemos intentado introducir un giro digital en una asignatura de humanidades tradicional. La experiencia se centra en mejorar los conocimientos métricos a la vez que se incentiva la participación en las actividades de investigación universitaria, y, por lo tanto, la implicación activa del alumno, integrando elementos transversales y transdisciplinares.

Nuestra intención ha sido además ofrecer una visión desde las humanidades del panorama que los métodos y actividades de las HD han ido abriendo.

Bibliografía

BIMBAUM, D. J., & THORSEN, E. (2015), «Markup and meter: Using XML tools to teach a computer to think about versification», Balisage: The Markup Conference. En: (Fecha de consulta: 27-04-2017).

DELENTE, E., & RENAULT, R. (2015), «Outils et métrique: un tour d’horizon» Langages, n.º 3, pp. 5-22.

GARCÍA GONZÁLEZ, R. (ed.) (2006a), Sonetos del siglo XIX, Alicanet, Biblioteca Virtual Miguel de Cervantes. En: (Fecha de consulta: 27-04-2017).

GARCÍA GONZÁLEZ, R. (ed.) (2006b), Sonetos del siglo XV al XVII, Alicanet, Biblioteca Virtual Miguel de Cervantes. En: (Fecha de consulta: 27-04-2017).

GERVÁS, P. (2000), «Tightening the Constraints on Form and Content for an Existing Computer Poet», AISB Convention 2015. En: < http://eprints.sim.ucm.es/37000/> (Fecha de consulta: 27-04-2017).

NAVARRO-COLORADO, B. (2017), «A metrical scansion system for fixed-metre Spanish poetry», Digital Scholarship in the Humanities.

RÍO RIANDE, G., GONZÁLEZ-BLANCO, E. & MARTÍNEZ CANTÓN, C. I. (2015), «Making visible the invisible: metrical patterns, contrafacture and compilation in a Medieval Castilian Songbook», presentado en DH 2015: Global Digital Humanities, Sydney, Australia. En: <http://dh2015.org/abstracts/> (Fecha de consulta: 27-04-2017).

UNED (2014), «Memoria de verificación del título de Grado en Lengua y Literatura Españolas por la Universidad Nacional de Educación a Distancia». En: (Fecha de consulta: 27-04-2017).

[1] Desde el curso 2016-2017 la Universidad Pablo de Olavide ofrece un máster oficial en Historia y Humanidades Digitales. Existen además ya varios títulos propios en universidades como la UNED, la UBA, o la USAL.

El Juego del Legajo: aprendizaje y difusión del conocimiento histórico en la era digital

Daniel Montalvo Mena
Universidad Autónoma de Madrid

Palabras clave: Humanidades digitales, Historia Digital, Pedagogía audiovisual, TIC
Keywords: Digital Humanities, Digital History, Audiovisual teaching, TIC

La presencia de las tecnologías de la información y la comunicación en todos los aspectos de nuestra vida es ya una realidad manifiesta en la era digital. El uso frecuente de Twitter, Facebook o el correo electrónico son muestra de una actividad digital que dibuja un mundo cada vez más globalizado e interconectado. Por otro lado, la irrupción de las TIC en el plano académico ha supuesto una apertura de nuevas perspectivas de conocimiento en saberes ya tradicionales. La alianza entre la computadora y las Humanidades ha florecido en nuevos métodos de investigación y divulgación que sugieren nuevas miradas al pasado y una mayor presencia de disciplina humanística en la sociedad.

El Centro Europeo para la Difusión de las Ciencias Sociales, o CEDCS, fue fundado en el año 2005 con el objetivo de aunar la docencia, investigación y difusión de temáticas históricas y culturales, y de trabajar sobre los espacios de frontera relevantes en nuestros días: espacios de conflicto, pero también de encuentro, convivencia, mestizaje y creatividad. Desde entonces, el CEDCS buscó construir puentes entre la sociedad y los historiadores, sobre todo jóvenes, a través de la difusión de investigaciones históricas –de libre acceso- a las cuales el público interesado pudiera acceder de una manera amena y rápida. En ello ha jugado un papel fundamental el Archivo de la Frontera , expresión web de todas las actividades que el centro lleva a cabo.

Archivo de la Frontera es una plataforma de libre acceso donde estudiantes, profesores e investigadores publican sus artículos e investigaciones, creando una comunidad virtual en torno a temas históricos. Desde su creación, el ADF ha realizado una función divulgativa de la historia española y europea, permitiendo un conocimiento profundo de la pluralidad y riqueza del patrimonio histórico cultural compartido; y ayudando a recuperar y a difundir piezas archivísticas de gran valor que ayudan a la comprensión de las relaciones de la Monarquía Hispánica con el mundo Mediterráneo. En este sentido, su importancia ha sido tal que no sólo se ha convertido en un referente internacional, sino que además su actividad ha sido reconocida por la UNESCO.

La plataforma es además una herramienta educativa en sí misma. Tanto su creador, el profesor de la Universidad de Alcalá Emilio Sola Castaño, como otros docentes de universidades españolas e internacionales, han utilizado el Archivo de la Frontera en sus

clases para la búsqueda de información, para la difusión de actividades, y para fomentar el trabajo colaborativo con los alumnos mediante la creación de grupos de trabajo –públicos o privados- que favorecen el intercambio y creación de conocimientos entre todos sus participantes. Los objetivos y metas del ADF desde el punto de vista educativo pueden condensarse en tres puntos:

  • Posibilitar la adquisición por parte del alumno de un conocimiento básico de los principales métodos, técnicas e instrumentos de análisis del historiador. Esto incluye la habilidad necesaria para poder estudiar documentos de épocas remotas y la capacidad de aproximarse críticamente a los diversos tipos de fuentes históricas.
  • Fomentar la expresión fluida, clara y coherente. Es esencial que el estudiante adquiera la capacidad de dar congruencia a sus argumentaciones y de hacerlas comprensibles a los demás.
  • Enseñar a manejar los instrumentos de búsqueda, identificación y acopio de información, tanto bibliográfica como de cualquier otra naturaleza, incluidos los recursos electrónicos y de Internet, y que el alumno demuestre la capacidad para servirse de ellos al abordar el estudio de un problema historiográfico o emprender una investigación propia.

Convencidos de que uno de los fundamentos para conseguir un aprendizaje significativo parte de lograr la implicación emocional del alumno -mediante actividades que tengan significado para él y le parezcan relevantes, interesantes y útiles, donde pueda aplicar de forma práctica sus conocimientos y participe de manera responsable en su aprendizaje- desarrollamos el Juego del Legajo: un modelo pedagógico apoyado en la resolución de problemas y la construcción colaborativa del conocimiento[1].

Creado y teorizado por Laura Massimino, y puesto en práctica por Emilio Sola en sus clases, el Juego del Legajo está concebido como una práctica que pretende enseñar a los alumnos los rudimentos de la investigación histórica con fuentes primarias y que, a su vez, responda al nuevo paradigma educativo surgido con la implementación del Plan Bologna y el EEES, facilitando la adquisición de las competencias (conocimientos, habilidades, destrezas y actitudes) propuestas por la ANECA para el Grado de Historia.

Ante este nuevo paradigma educativo, los profesores deberán diseñar experiencias de aprendizaje en las cuales se ponga en práctica la innovación pedagógica que supone el cambio de un modelo centrado en la enseñanza a otro donde el alumno es responsable y partícipe de su propio aprendizaje. Ello implica emplear estrategias didácticas en las que el alumno tenga que enfrentarse a situaciones reales y significativas para él, aplicar los conocimientos adquiridos para la búsqueda de soluciones, tomar decisiones y aprender de forma autónoma, reflexiva y crítica, con el fin de construir aprendizajes significativos.

Mediante la práctica del Juego del Legajo se propone al alumno el contacto directo con las fuentes primarias y la superación, con ayuda del profesor/tutor, de los problemas inherentes a la investigación histórica. Una actividad que fomenta el pensamiento crítico y los instruye en los conceptos, categorías y herramientas del historiador. Los alumnos participan activamente en una investigación histórica a través de la cual aprenden a narrar el pasado a partir de documentos históricos válidos y fiables. Si el Juego del Legajo queda bien resuelto por el equipo de trabajo, se convertirá en un nuevo contenido del Archivo de la Frontera, donde quedará disponible para ser consultado por toda la comunidad virtual.

El Juego del Legajo consiste en un trabajo práctico donde los alumnos realizan la transcripción paleográfica y contextualización histórica de documentos pertenecientes a legajos históricos. En nuestro caso, los legajos proceden del Archivo General de Simancas,

Estado, Costa de África y Levante, l. 486 y 487, y contienen documentos que ayudan a explicar la presencia y las acciones militares hispanas en el Norte de África. Tras formar grupos de trabajo / investigación, los alumnos seleccionarán un documento de uno de los legajos anteriores, con la guía del profesor, que podrá recomendarles uno u otro documento según sus intereses.

A partir de aquí, el primer paso será la transcripción paleográfica del documento, que puede ser compleja y completa, fragmentada o simplificada, u otra más informal. A continuación, seguirá la contextualización de hechos que se narran en el documento y/o del período histórico en el que transcurre. También será necesario que el alumno realice una pequeña ficha biográfica acerca de los personajes que se nombran en el documento, así como del autor de la propia fuente. Realizada la contextualización, deberán interpretar, debatir, seleccionar y valorar la información hallada, cuyo resultado será la creación y producción de un producto de difusión histórica. El grupo tiene total libertad en cuanto al formato de presentación, pudiendo ser el resultado de su investigación un documento escrito, un guion audiovisual, un comic, por mencionar algunos ejemplos[2].

[1] El documental puede visualizarse en: Youtube. Archivo de la Frontera. (2016). Recuperado de: https://www.youtube.com/watch?v=RqcgW4caQ4U.

[2]  Los trabajos publicados están disponibles en Archivo de la Frontera. (2016). Recuperado de: .

Proyecto e-Civeles: Competencias geoespaciales y sensibilización patrimonial para la integración social

José Jesús Delgado Peña
Universidad de Málaga

Palabras clave: competencias geoespaciales, sensibilización patrimonial, integración social, videojuegos educativos, personas mayores, inmigrantes
Keywords: geospatial competences, heritage awareness, social integration, digital serious game, elderly people, immigrants

En el presente trabajo, originario de un proyecto en un estado inicial de desarrollo, se quiere dar respuesta a una población determinada cuya tendencia de crecimiento en el futuro próximo es clara. De un lado, la población de más de 55 años, y de otro, la población residente inmigrante y refugiados. El aspecto común que les une es una mayor dificultad en la adquisición de competencias digitales, especialmente en los segmentos de población de mayor edad y en aquellas personas originarias de ámbitos rurales y poco tecnificados. Además, también presentan la necesidad de mejorar otro tipo de competencias, como pueden ser las geoespaciales, el estímulo cognitivo (en personas +55) o el dominio de una lengua extranjera (inmigrantes), entre otras. En relación a la brecha digital, se hacen necesarias acciones coordinadas para integrar la población en riesgo de exclusión social en el mundo de las TIC, un objetivo en línea con la Acción 61 de la Agenda Digital de la Estrategia 2020.

El objetivo de este proyecto es crear una serie de materiales y recursos innovadores que fomenten la adquisición de dichas competencias, orientados, en primer lugar, al profesorado de dicho segmento poblacional, como motor de mejora educativa, pero sin olvidar al conjunto de alumnado, beneficiario final del proyecto, y que también será tenido en cuenta en las diferentes actividades desarrolladas durante el mismo. En tercer lugar, también importante, participarán otros agentes del ámbito educativo, político y de la administración, del ámbito público y privado. Los productos del proyecto ayudarían a:

  • Promover la mejora de las competencias digitales, geoespaciales, lingüísticas y destrezas cognitivas de los grupos de alumnado beneficiarios (personas +55 e inmigrantes).
  • Favorecer su integración social mediante su mayor sensibilización hacia el patrimonio histórico y cultural en un contexto a nivel europeo.
  • Estimular la actualización docente en el ámbito conceptual del proyecto (uso de las TIC, perspectiva intercultural).

Para ello, se crearán un conjunto de recursos donde la motivación sea el motor fundamental. Para ello, potenciaríamos el uso de las TIC desde una perspectiva lúdica, la gamificación, mediante la creación de un conjunto de video juegos insertos en una plataforma virtual con otros recursos de apoyo y herramientas de comunicación que promuevan la participación activa de los usuarios.

Otra perspectiva en la que pretendemos ahondar y queremos que sirva de segundo pilar del proyecto, aparte del uso de las TIC, es la intercultural. Creemos firmemente que el conocimiento del patrimonio histórico y cultural del ámbito europeo puede ser un canal hacia la integración social de colectivos extranjeros, potenciándose los resultados mediante la convivencia y el dialogo con otro segmento poblacional de gran relevancia como es el de las personas +55, que a su vez, pueden encontrar en este tipo de iniciativas un aliciente a favor de un proceso de envejecimiento activo.

Los video juegos consistirán en la orientación y resolución de pruebas en 4 escenarios 3D virtuales que corresponden al casco histórico de diversas ciudades con relevante patrimonio cultural en países socios (España, Portugal, Italia y Eslovenia).

El consorcio responsable lo conforma un ente multisectorial de 6 socios de 6 países, ofreciendo amplia cobertura geográfica, combinación equilibrada de habilidades y experiencia en aprendizaje permanente, educación de adultos y la base tecnológica que fundamenta el concepto, para asegurar así el éxito y alcance de sus objetivos.

Humanizar las Humanidades Digitales: el reto de la Biblioteca Nacional de Colombia

Tália Méndez Mahecha
Biblioteca Nacional de Colombia

 Palabras clave: diseño emocional, diseño industrial, estrategia digital en humanidades, metodologías de creación de proyectos, fases para un proyecto de humanidades digitales, procesos interdisciplinares
Keywords: design thinking, digital strategy in digital humanities, interdisciplinary processes

Hemos tenido un tiempo de fama, diría yo. De investigar y reflexionar sobre contenidos específicos pasamos a expresar nuestras ideas en formatos ajenos a nuestra disciplina, a desafiar los paradigmas del deber ser de un humanista, a sentir —tal vez— que lo que pensábamos era posible en otros lenguajes. Empezamos a entender el código como ingenieros y casi como un pintor abstracto que no sigue ninguna norma. Comenzamos a manifestar nuestro «arte» en digital, en plataformas web, aplicaciones, videojuegos, en fin, cualquier formato. Pero el problema de ser un artista de lo abstracto es que se es absolutamente subjetivo, se dan por válidas todas las ideas y se dejan de lado el contexto, el argumento y el usuario, porque lo que tenemos es una percepción propia y un ideal que quiere ser contado, no obstante, al ser Humanidades Digitales, nuestras bases deberían ser aquello que se está dejando de lado.

Desde este punto de vista, plantearnos el desarrollo de proyectos digitales como Biblioteca Nacional de Colombia nos obligó a revisar nuestras metodologías de creación; consecuentemente articularlo con nuestro Plan Digital, en el que ponemos en relación el ciclo de creación, difusión y uso del material patrimonial como una de nuestras estrategias para garantizar el acceso a la memoria colectiva del país.

Precisamente, al articular con el Plan Digital, era necesario involucrar a nuestro interés agentes afines que pertenecieran a la colectividad cultural: el Ministerio de Cultura, el Centro de Memoria Histórica, la Red Colombiana de Humanidades Digitales y la Maestría de Humanidades Digitales de la Universidad de los Andes, todos ellos reunidos en el Semillero de Investigación de Humanidades Digitales de la Biblioteca Nacional de Colombia.

Nuestro objetivo como Semillero es lograr la articulación de la investigación académica con la experimentación en el desarrollo de productos y servicios digitales, fundamentados en una intersección metodológica de creación que impulse la participación afectiva y comprometida de los usuarios finales. Desde este escenario, diferentes campos de lo puramente bibliotecológico como la preservación digital, la catalogación, el patrimonio y la producción de contenidos, entre otros, empezamos a indagar sobre metodologías para crear productos digitales que tuvieran relación con algunas características de las Humanidades Digitales, como el trabajo en equipos multidisciplinares, la desjerarquización de las disciplinas y la interacción con la tecnología.

El diseñador y arquitecto Richard Buckminster Fuller fue uno de los pioneros en «establecer equipos de trabajo multidisciplinares entre ingenieros, diseñadores industriales y científicos, al proceso de diseño para evaluar y resolver los problemas de la humanidad»[1]. Este cambio significativo en la disciplina del Diseño fue lo que impulsó lo que hoy conocemos como Design Thinking, dinámica similar a la de las Humanidades Digitales.

El enfoque del Design Thinking es la comprensión profunda del usuario y sus necesidades desde una perspectiva creativa a través de la empatía. Pensar empáticamente desde la creación de producto es ponernos en el lugar del otro, es anteponer las necesidades de las personas, entender su mundo y comprender lo que sienten y, al mismo tiempo, equilibrar los requerimientos que se tengan como entidad, organización o institución. Por ejemplo, uno de los bancos más importantes en Colombia percibió el disgusto y la incomodidad que sentía la gente a la hora de hacer cola; su requerimiento era mejorar la forma de esperar, así que resolvió quitar el «caminito» clásico de columnas que guiaba la cola, instauró un sistema de turnos y puso suficientes sillas cómodas; en síntesis, con esta decisión simple no solo cumplió con el objetivo sino que redefinió la forma de esperar turno, mejorando el humor y la permanencia de sus clientes.

Si reflexionamos sobre este ejemplo como humanistas digitales, o makers[2] —como lo reconceptualiza Alejandro Piscitelli—, cabe cuestionarnos: ¿tenemos en cuenta desde el inicio de nuestro proceso de creación la conexión afectiva que queremos lograr? ¿nos hemos acercado a nuestra audiencia o nos estamos enfocando en las especificidades del pensamiento computacional? Para responder a estos interrogantes podemos citar a Donald Norman: «los objetos que nos resultan atractivos funcionan mucho mejor»[3], y esto aplica también para los productos digitales, así que si queremos lograr que vayan más allá de ser usables, navegables, estéticos y que contengan una investigación, debemos humanizarlos y, para esto, empatizar.

La idea de adaptar el Design Thinking a los proyectos digitales de la Biblioteca Nacional de Colombia implica que debemos generar nuestras propias formas de empatía. Por ejemplo, uno de los proyectos que se está trabajando desde el Semillero es el Archivo Web del Proceso de Paz y el Posconflicto; desde allí se tendrá que definir quiénes son los usuarios que interactuarán con la plataforma: las víctimas o, en general, los colombianos. Esta simple definición cambiaría el tono de comunicación y, para determinarlo, tendríamos que interactuar con ellos y resolver preguntas como: ¿qué piensan del posconflicto? ¿con qué emociones relacionan la situación?, ¿qué acciones y comportamientos queremos lograr?, ¿queremos reunir proyectos que evidencien la situación del país? En ese orden de ideas, el concepto de «humanizar» adquiere un significado más fuerte porque hablamos de generar desarrollos digitales con un componente emocional que origine una relación cercana entre nuestros usuarios y el acervo patrimonial.

Finalmente, como Biblioteca Nacional de Colombia y colectividad cultural, exigirnos apropiar y transformar metodologías como el Design thinking para cautivar a nuestros usuarios, nos permitirá generar argumentos y contextos humanos tan fuertes desde las disciplinas involucradas que, a la hora de crear desarrollos digitales, podremos deshacernos de todo lo que no es esencial y lograr un compromiso emocional humanizando el resultado, en nuestro caso el patrimonio de la nación.

[1] <http://designthinking.gal/la-verdadera-historia-del-design-thinking>.

[2]<http://historiadelartemalaga.uma.es/dixit/las-humanidades-digitales-una-marco-de-reflexion-critica-sobre-la-cultura-i-cshdsur/>.

[3]Norman D, “El Diseño Emocional. Por qué nos gustan (o no) los objetos cotidianos”, Capítulo 1: Los objetos atractivos funcionan mejor. Editorial Paidós Ibérica S.A. Barcelona, España. Año 2005. Pág.33 – 50. ISBN: 84-493-1729-0.

Proyecto ‘TRACE’ y Red ‘VINS’: una reflexión crítica sobre la integración de recursos digitales en proyectos de investigación sobre literatura y cultura en lengua inglesa

Rosario Arias
Universidad de Málaga

Juan José Martín González
Universidad de Málaga

Palabras clave: literatura en lengua inglesa, recursos digitales, lectura, investigación
Keywords: literature written in English, digital resources, reading, research

Se podría pensar que la investigación fundamental orientada a la literatura y cultura en lengua inglesa y los recursos digitales son strange bedfellows, como se dice en inglés. Sin embargo, en un número reciente de la revista Contemporary Women’s Writing (marzo 2015), dedicado a la experimentación literaria, se incidía sobre el potencial existente entre el texto literario y los medios digitales. Gracias a los e-books y a los e-readers, por ejemplo, la lectura del libro se ha convertido en una experiencia diferente, mucho más interactiva y compleja. Resulta evidente que lo que se llama la cultura de la convergencia (convergence culture) ha promovido el flujo constante de información y experiencias entre diversos lectores, comunidades lectoras y soportes digitales. Por otro lado, y teniendo en cuenta que la literatura forma parte intrínseca de una sociedad altamente digitalizada, la investigación académica no debe ser ajena a las tecnologías digitales disponibles para la amplificación del impacto y de la transferencia de dicha investigación.

Nos interesa estudiar el impacto de la era digital en el proceso creativo, así como en la lectura e interpretación de textos. Por una parte, el proceso creativo ha experimentado una significativa evolución debido a la convergence culture, también llamada participatory culture en la que la creación literaria no es una tarea exclusiva del autor/a, sino también del lector/a y receptor/a del producto cultural. Por otra parte, nos interesa adentrarnos en las diferencias existentes entre close reading vs. distant reading, una práctica que analiza obras literarias mediante las nuevas tecnologías. En este sentido, Franco Moretti, autor de Distant Reading (2013), ha transformado el ámbito de la crítica literaria al desmantelar la práctica individual y subjetiva de la interpretación literaria. La era digital ha supuesto un cambio radical en el proceso lector, sobre todo con el uso habitual de los e-readers. De hecho, hace unos años se pensaba que el libro en papel estaba condenado a su desaparición. Sin embargo, esto no se ha producido y el libro se adapta a nuestra era tecnológica. En el número de Contemporary Women’s Writing, destinado a Experimental Writing (March 2015) se presentan artículos que abordan el análisis de textos literarios que subrayan la necesidad urgente de experimentación. En concreto, algunos de ellos hacen referencia a la aparente pugna entre el libro físico frente al texto electrónico. Durante un tiempo pareciera que el libro impreso estaba destinado a la extinción, sin embargo, estudios materiales ahora destacan las cualidades afectivas y sensoriales del proceso de la escritura (y, por ende, de la lectura) del texto multimodal y experimental (Plate, 2015: 95). Por ello autores como Jessica Pressman subrayan la necesaria conexión entre la página impresa y el formato multimedia del libro, que está intrínsecamente relacionado con la tecnología digital. Esto abre un panorama muy novedoso en lo que se refiere a la experiencia literaria en la actualidad: «[t]he immediate focus on embodiment, and the parallel between human and textual bodies, situates the novel in the realm of recent discourse about the posthuman condition as a situation in which information loses its body» (Pressman, 2009: 469).

A la vista de lo expuesto resulta necesario ofrecer una reflexión crítica sobre la investigación fundamental en literatura, que no debe ser ajena a los medios digitales y así ofrecer un análisis profundo sobre la creación, publicación y diseminación de la literatura y cultura. Sin menoscabar la relevancia de la investigación fundamental, pilar básico en el avance del conocimiento, a nuestro entender, y que fomenta la actitud crítica ante los retos de una sociedad cambiante, entendemos que los medios digitales posibilitan un mayor alcance y difusión de los estudios críticos. Tomando como ejemplo el proyecto New Critical Approaches to the Trace and Its Application to Recent Literature Written in English (FFI2013-44154-P) y el I Seminario Internacional en Estudios (neo-)Victorianos de la Red temática VINS (10 al 12 de mayo 2017, Universidad de Málaga), nos proponemos, asimismo, realizar un reflexión crítica acerca del impacto de la era digital en la investigación fundamental, en los métodos de análisis en humanidades y en la metodología básica de aplicación de enfoques críticos innovadores a análisis literario y cultural, así como en las relaciones entre autores, lectores y críticos. Asimismo pretendemos llevar a cabo una evaluación de las posibilidades creativas de las humanidades digitales para amplificar el impacto y la transferencia de nuestra investigación. Nuestra conclusión reivindica la investigación fundamental y la metodología básica pero de la mano de la aplicación de enfoques críticos innovadores al análisis literario y cultural, así creando masa crítica en nuestro ámbito.

Bibliografía

MORETTI, Franco (2013), Distant Reading, Londres, Verso.

PLATE, Liedeke (2015), «How to Do Things with Literature in the Digital Age: Anne Carson’s Nox, Multimodality, and the Ethics of Bookishness», Contemporary Women’s Writing, vol. 9, n.º 1, March, pp. 93-111.

PRESSMAN, Jessica (2009), «The Aesthetic of Bookishness in Twenty-First-Century Literature», Michigan Quarterly Review, vol. 48, n.º 4, pp. 465-82.

Museos, mediación y cultura digital

Jaime Mena de Torres
Colección del Museo Ruso y Centre Pompidou Málaga

Palabras clave: museos, mediación cultural, patrimonio, digital, analógico
Keywords: museums, art mediation, heritage, digital, analog

Los museos y centros de arte están constantemente actualizando sus políticas educativas en base a las realidades específicas de los públicos, quienes representan cada vez un perfil más hibrido: el público infantil y joven lo compone una generación que ya son nativos digitales, los adultos poseen diferentes niveles de vinculación con la cultura y la interacción digital, mientras que los mayores de 65 años son mayoritariamente un público desvinculado con la cultura digital. Sin embargo, pese a estos diferentes grados de relación con lo digital, cada vez es mayor la demanda de presencia de instrumentos y estrategias de mediación digital. Desde pantallas informativas donde el visitante decide el tipo y la complejidad de la información a la que accede, hasta la utilización de la realidad virtual como herramienta de interacción con las colecciones.

En el caso de la Colección del Museo Ruso y del Centre Pompidou Málaga, al ser un mismo equipo educativo, tenemos la posibilidad de explorar e investigar al mismo tiempo distintas estrategias de mediación digital. Debido a que el perfil de visitante de cada centro es diferente, podemos investigar e implementar con diferentes enfoques y recursos, lo que nos posibilita un marco de estudio variado a partir del cual analizar el potencial de la cultura digital como parte de los programas pedagógicos de los museos.

En el caso específico del Centre Pompidou Málaga, nuestras colecciones presentan piezas en las que los artistas utilizan recursos tecnológicos, narrativos y estéticos vinculados con la cultura y la producción digital. Junto a esto, hay que tener en cuenta el hecho de que la predisposición de los públicos hacia el arte contemporáneo es compleja, por lo que teniendo en cuenta ambos aspectos, parte de la mediación se centra en acercar la cultura digital a partir de la práctica analógica. Este enfoque nos facilita crear un espacio cómodo y dinámico de acceso a las creaciones artísticas, de modo que el visitante no sume, al posible rechazo previo hacia el arte contemporáneo, aquella distracción que puede provocar la sobrevinculación o la desvinculación con la cultura digital.

Por otro lado, la Colección del Museo Ruso presenta un discurso expositivo que predispone positivamente a los públicos hacia el trabajo con la cultura digital. El tipo de obra y de discurso permite un primer contacto más cercano entre los visitantes y la obra artística. Este contexto nos da la oportunidad de explorar la potencialidad de la mediación digital como enfoque pedagógico en el museo ya que, aunque lo digital sea novedoso como estrategia, el tipo de colección evita que tengamos demasiados elementos a de dispersión. A partir de este equilibrio, durante estos dos primeros años hemos abordado conceptos digitales, así como introducido a los visitantes en el ámbito de los museos virtuales.

A partir de las conclusiones obtenidas durante estos dos últimos años, nuestro objetivo es iniciar una segunda fase de trabajo con mayor presencia del arte y la práctica digital con la finalidad de definir estrategias pedagógicas que nos mantengan vinculados con la realidad digital de los públicos.

La Xarxa d’Humanitats Digitals de la UABCei: una estructura inteligente para la investigación y la transferencia en Humanidades

Oriol Vicente
UAB

Alicia Fornés
UAB

Ramón Valdés
UAB

Palabras clave: Red de Humanidades Digitales, Patrimonio Digital, sistema de innovación del cuádruple hélix, Fab-Living Lab
Keywords: Digital Humanities Network, Digital Heritage, quadruple helix innovation system, Fab-Living Lab

La UAB es una universidad generalista donde diferentes Grupos y Centros de Investigación en Humanidades han desarrollado un amplio abanico de capacidades en los últimos años en proyectos nacionales e internacionales, algunos de ellos en colaboración con centros tecnológicos de la universidad.

Hoy en día el aumento de las tecnologías digitales tiene un gran impacto en todos los aspectos de nuestras vidas, desde la educación hasta el consumo y la comunicación. Las Humanidades tienen en cuenta estas tecnologías y las vienen utilizando para desarrollar su investigación como herramientas que facilitan la transferencia de conocimientos y los procesos de investigación. Este hecho, obvio para algunos países europeos, es algo que todavía está en discusión en algunos departamentos universitarios españoles y que en realidad está muy poco respaldado por los programas nacionales de investigación. La prueba es que hoy en día pocos grupos de investigación y centros de investigación se centran en el área de HD y sólo unos pocos de ellos están presentes en redes y proyectos internacionales.

Dado el interés de los grupos de investigación de nuestra universidad en incrementar el número de proyectos en HD y su visibilidad, algunos investigadores han creado una red que cuenta con el apoyo del Vicerrectorado de investigación y se une al clúster de investigación sobre Patrimonio Cultural que ha sido implementado recientemente por la Universidad. La «Red de Humanidades Digitales de la UAB» y su «Campus de Excelencia Internacional» pretende articular de forma efectiva y racional las capacidades de los grupos de investigación, centros de investigación, servicios científicos y técnicos, parques tecnológicos e importantes infraestructuras de investigación en torno a las Humanidades Digitales y su subconjunto, el patrimonio digital. La red aumenta la competitividad de sus miembros, uniendo esfuerzos en términos de visibilidad, coordinación de actividades relacionadas con la investigación, educación y diseminación, así como la compartición de recursos e información. Además, a través de la red, se logra una estrecha interacción con los responsables políticos regionales, nacionales e internacionales, así como una fuerte presencia en el territorio catalán.

La red reúne a más de 20 miembros. Estos cubren un amplio sector de las humanidades y las ciencias sociales como el arte, la filología, la filosofía, la geografía, la historia, la arqueología, la musicología, la antropología, la sociología, el derecho, la economía y las ciencias de la comunicación. Del mismo modo la fuerte presencia de centros de investigación técnica ofrece soluciones a la aplicación de las nuevas tecnologías en el área de Humanidades como pueden ser los dedicados a la Visión por Computador, la Inteligencia Artificial, la Informática o las Telecomunicaciones.

La colaboración con el sector público y privado también se está fortaleciendo. PYMES y fundaciones privadas se han inscrito en la red, contribuyendo, ya sea con capacidades de transferencia o de financiación, en desarrollar nuevos proyectos. Por otro lado, el sector público, como los municipios o el gobierno de Cataluña, se han implicado en la red como colaboradores. Esta unión de esfuerzos es particularmente importante debido a la necesidad de alineación en las políticas de innovación y transferencia alrededor de las Humanidades Digitales y el Patrimonio Digital.

En este sentido, y siguiendo la orientación de los programas europeos hacia modelos de innovación que den respuesta a los retos sociales incluyendo la participación de la ciudadanía, el gobierno de Cataluña ha dado luz verde en noviembre de 2016 al programa de CATLABS. Éste se enmarca en la estrategia regional de especialización inteligente RIS3CAT, que tiene como objetivo final transformar el conocimiento y la tecnología en valor económico y social, y también en el Pacto Nacional para la Sociedad Digital y el programa Smartcat por el despliegue de iniciativas Smart City en todo el territorio catalán.

El programa Catlab, dirigido a la articulación y el reforzamiento de una red catalana de innovación digital, social y colaborativa, contempla como actuación prioritaria la implicación de universidades y otros agentes de innovación en los retos del territorio y de la ciudadanía y la generación las innovaciones que den respuesta a estos retos. Es en el marco del programa Catlab, y en la propia estrategia de la universidad de convertirse en referente como motor de transformación económica y social, que la UAB ha apostado por la creación de la Red Fab-LivingLabs UAB (UAB LABS).

La UAB, que dispone desde 2014 de la acreditación de Living Lab por la European Networks of Living Labs por su participación en el LivingLab de la Biblioteca de Volpelleres (Sant Cugat), tiene la voluntad de que su campus también se convierta en un espacio de experimentación, innovación y demostración de las nuevas tecnologías y metodologías, tanto para la comunidad investigadora como para su entorno productivo y social, y al mismo tiempo sirva como incubadora y acelerador de diferentes proyectos e iniciativas. Así pues, el objetivo principal de los Fab-Living labs UAB (UAB LABS) es convertirlos en nuevos instrumentos de transferencia para la valorización de productos, maduración de tecnologías, actividades de experimentación y de evaluación de tecnologías y metodologías potencialmente transferibles, generados de la propia investigación, la investigación colaborativa o de la investigación realizada por agentes externos. Con un factor definitorio y distintivo como es la incorporación al ecosistema de la cuádruple hélice, es decir, la apertura a la participación de los ciudadanos, de forma individual o colectiva, tanto como elementos generadores de ideas, como elementos activos en el proceso y como usuarios finales. En resumen, contribuir a consolidar un ecosistema de innovación abierto, que fomente la innovación social digital, la eco innovación, la innovación empresarial basada en retos sociales, con un especial énfasis en el emprendimiento y la participación de los jóvenes en los procesos de fabricación, co-creación y adquisición de competencias digitales.

De ésta forma desde el área de investigación y transferencia de la universidad, a través de sus vicerrectorados y unidades, se está impulsando la creación de uno de éstos FabLabs orientado a las Humanidades Digitales y al Patrimonio Digital. El objetivo es ofrecer un espacio y una serie de recursos instrumentales, de metodologías y de apoyo para favorecer la innovación, impulsar actividades de experimentación y evaluación de tecnologías y metodologías potencialmente transferibles, validar propuestas dentro de entornos reales y ayudar a la aplicabilidad de tecnologías dentro el mundo de las Humanidades y las CCSS.

Por otra parte, el nuevo Laboratorio Abierto ayudará a adquirir competencias digitales para hacer frente a la falta de habilidades digitales tanto del alumnado como del profesorado y el personal investigador.

Con ésta nueva iniciativa se pretende generar un espacio y un flujo de proyectos que se pongan al servicio del entorno productivo y social de diversas formas, como puede ser:

  • Digitalización: Servicio a disposición de aquellas empresas o entidades interesadas en procesos de digitalización, con el valor añadido de disponer de grupos de investigación con experiencia en este ámbito.
  • Educación: Empresas de hardware y software y también empresas e instituciones educativas y editoriales pueden utilizar el Fab-LivingLab para testear sus productos.
  • Gestión cultural: Empresas de gestión cultural, tecnología dirigida a la gestión cultural, museos públicos y privados, y entidades culturales en general pueden testear sus productos o servicios.
  • Emprendimiento: Espacio de co-creación al servicio de la generación de ideas en el ámbito de las Humanidades Digitales, con el apoyo de las áreas competentes en emprendimiento: PRUAB y Servicio de Empleabilidad.

Financiación

El proyecto UABLABS se cofinancia gracias a una ayuda del Fondo Europeo de Desarrollo Regional (FEDER).

Una aproximación al perfil de los humanistas digitales en España

Luis Arboledas Lérida
Universidad de Granada

Esteban Romero Frías
Universidad de Granada

Palabras clave: identidad digital, humanista digital, Humanistas Digitales en España, congreso de Humanidades Digitales, proyectos de investigación.
Keywords: digital identity, digital humanist, Digital Humanities in Spain, Digital Humanities congress, research projects.

  1. Introducción

Las Humanidades Digitales presentan una longeva trayectoria histórica en España, cuyos albores pueden remontarse hasta los años setenta, época en la que emergieron las primeras iniciativas de investigación en la convergencia entre las tecnologías digitales y los saberes humanísticos en el país (Rojas-Castro, 2013). Sin embargo, sólo en fechas muy recientes puede hablarse de una verdadera consolidación de las Humanidades Digitales en este país (Spence), con la fundación de la Sociedad Internacional de Humanidades Digitales Hispánicas en 2012. Desde entonces, ha proliferado el interés por este ámbito de investigación, experimentación e, incluso, activismo (Svensson, 2009), llegando a convertirse, en ciertos casos, en un objeto de estudio en sí mismo.

Las diferentes aportaciones hechas en el análisis de las Humanidades Digitales en España han posibilitado la identificación de algunas de las especificidades que tal campo presenta en este país, entre las que cabría destacar la prolijidad de iniciativas y convocatorias con las que se trata de compensar la falta de institucionalización (Spence); las múltiples estructuras de las que las Humanidades Digitales se dotan, y su disimilitud respecto a aquellas que son canónicas, al menos, en los países centrales en este ámbito (Spence); o la falta de reconocimiento académico de la labor de los investigadores, causada por las deficiente adaptación de los protocolos convencionales de evaluación al nuevo escenario de producción y diseminación del conocimiento científico que las tecnologías digitales han configurado (Romero-Frías, 2014).

En efecto, la irrupción y progresiva adopción de la tecnología digital está repercutiendo en todos los planos de la labor investigadora, desde el modo de interactuar con el corpus básico de estudio de su disciplina (Dalbello, 2011), hasta su empleo como herramientas de comunicación y colaboración entre pares (Torres-Salinas et al., 2013). El futuro de las disciplinas sociales y humanísticas no pasa, por tanto, por elegir entre ser o no ser digital, sino en qué medida se es digital (Brügger, 2016). En consecuencia, resulta imperiosa la tarea de dilucidar si y cómo la incorporación del elemento digital condiciona y afecta a la actividad diaria del académico que se confiere a sí mismo el calificativo de «humanista digital». Y a ese fin, desde su perspectiva parcial, pretende contribuir esta investigación.

  1. Objetivos

El objetivo de la investigación pretende conocer el perfil predominante de los investigadores autorreconocidos como «humanistas digitales», en virtud de su participación en los diferentes encuentros de Ciencias Sociales y Humanidades digitales que se han celebrado en el último año en España. El foco estará puesto, particularmente, en su adscripción institucional y la identidad digital que construyen con el uso (académico y no académico) que hacen de las plataformas de comunicación 2.0. En simultaneidad, otros aspectos que también se contemplarán en este análisis son:

  • Instituciones más activas en la promoción y visibilización de las Humanidades Digitales en España, tanto dentro como fuera de la academia.
  • Características de los proyectos de investigación a los que tales investigadores se han vinculado.
  1. Metodología

La muestra de investigadores sometidos a análisis se ha obtenido a partir del examen de los diferentes congresos (englobando bajo este concepto formatos tales como «jornadas», «evento», «simposio», etcétera) cuya convocatoria se difundió en la lista de distribución electrónica de la Sociedad Internacional de Humanidades Digitales Hispánicas entre febrero de 2016 y febrero de 2017, y celebrados en el mismo periodo. Sólo se procedió a examinar aquellos encuentros en cuyo nombre se hiciera referencia expresa a las Humanidades Digitales, o que pusiera énfasis en lo digital como característica determinante del contenido del encuentro.

De los 9 congresos seleccionados, se obtuvo una muestra de 146 sujetos de estudio entre los participantes a los mismos (incluyendo conferenciantes, moderadores o presentadores), mediante la supresión de filiaciones a instituciones no españolas. Mediante el correo electrónico, se hizo llegar a los humanistas digitales identificados un cuestionario, cuyo contenido se divide en tres grandes áreas:

  • «Información personal». Nombre y apellidos; adscripción institucional y profesión (o categoría académica, en caso de vinculación con la universidad).
  • «Información sobre el proyecto de investigación». Nombre del proyecto; entidad o entidades que más recientemente lo han financiado; y los productos más importantes que han resultado del mismo, ya sean artefactos digitales, publicaciones, vehículos de comercialización y transferencia del conocimiento, o iniciativas encaminadas a auspiciar un impacto social.
  • «Información sobre la identidad digital del académico». Se pregunta por los fines que persiguen con el empleo de las herramientas comunicativas de la Web 2.0., bien sean blogs personales o páginas webs, bien se trate de redes sociales.

En paralelo, se procedió al análisis de las adscripciones institucionales de entidades convocantes y participantes de los diferentes congresos, a fin de determinar cuáles han sido las instituciones que han contado con mayor presencia en el campo de las Humanidades Digitales en el último año. Esta información fue extraída de los respectivos programas de cada uno de los encuentros analizados.

  1. Resultados preliminares

Las universidades son las entidades preponderantes en la promoción y visibilización de las Humanidades Digitales en España entre los años 2016 y 2017, puesto que han sido la entidad que, de largo, más ha contribuido a la organización de los encuentros en el ámbito . Al interior de la propia institución académica, la iniciativa se reparte de manera casi equitativa entre los grupos de investigación, por un lado, y las facultades, por el otro.

De los 146 sujetos de estudio identificados, se lograron recabar 36 respuestas completas al cuestionario que se les transmitió a través del correo electrónico. El análisis de los datos proporcionados permite confeccionar un primer bosquejo del perfil del autorreconocido humanista digital en España, caracterizado como sigue: vinculado profesionalmente a la universidad (Personal Docente e Investigador, PDI), se encuentra en los estadios jerárquicos superiores de esta institución, bien sea como Catedrático, bien en calidad de Profesor Titular. Su principal ámbito de estudio suelen ser las ciencias del lenguaje, a saber, Lingüística y sus derivados, Filología y Literatura. Es más propenso a emplear redes sociales que a gestionar blogs o páginas webs personales. Con los social networking sites pretende, sobre todo, dar satisfacción a una necesidad clásica, como sería la gestión y filtrado bibliográficos, a fin de inscribir su propia labor en el más amplio corpus de conocimiento preexistente. En menor medida, pero de forma igualmente significativa, las redes sociales le sirven también para entablar y mantener contacto con otros investigadores, por un lado, y como objeto de estudio, por el otro. Cabe reseñar, por su parte, que el humanista digital no da un uso tan extensivo de las redes sociales en planos de su vida diferentes al laboral.

Los proyectos de investigación en los que toman parte los humanistas digitales identificados, se desarrollan, de manera preponderante, en el marco de grupos de investigación de carácter académico. Siendo la entidad universitaria, pues, el sector de ejecución de tales iniciativas, la financiación de los mismos, como es patrón común en el Sistema Español de Ciencia y Tecnología (Fundación COTEC, 2017), corre a cargo de organismos públicos. La base de datos y el artículo científico (incluyendo libros o capítulos de libro en este apartado) son, respectivamente, el artefacto digital y el output convencional privilegiados en los proyectos de investigación en Humanidades Digitales. La transferencia del conocimiento o el public engagement no son dimensiones del proyecto que se suelan tomar en consideración.

Financiación

Este trabajo se enmarca en el proyecto de investigación  Knowmetrics: evaluación del conocimiento en la sociedad digital, financiado por la Fundación BBVA.

Bibliografía

BRÜGGER, Niels (2016), «Digital Humanities in the 21st century: Digital materials as a driving force», Digital Humanities Quarterly, vol. 10, n.º 2. En: <http://www.digitalhumanities.org/dhq/vol/10/3/000256/000256.html> (Fecha de consulta: 23-04-2017).

DALBELLO, Marija (2011), «A geneaolgy of Digital Humanities». Journal of Documentation, vol. 67, n.º 3, pp. 480-506.

Fundación COTEC (2017), Informe COTEC 2017. En: <http://cotec.es/media/INFORME-COTEC-2017_versionweb.pdf> (Fecha de consulta: 26-06-2017).

ROJAS-CASTRO, Antonio, «El mapa y el territorio. Una aproximación histórico-bibliográfica a la emergencia de las Humanidades Digitales», Caracteres, vol. 2, n.º 2, pp. 10-53.

ROMERO-FRÍAS, Esteban (2014), «Ciencias Sociales y Humanidades Digitales: una visión introductoria», en ROMERO-FRÍAS, E. y SÁNCHEZ-GONZÁLEZ, M. (eds.), Ciencias sociales y Humanidades Digitales. Técnicas, herramientas y experiencias de e-Research e investigación en colaboración, La Laguna (Tenerife), Cuadernos Artesanos de Comunicación, pp. 19-50.

SPENCE, Paul, «A historical perspective on the digital humanities in Spain». En: <http://e-spacio.uned.es/fez/eserv/bibliuned:352-Egonzalez18/Gonzalez_Blanco_Elena_historical_perspect.pdf> (Fecha de consulta: 27-04-2017).

SVENSSON, Patrik (2009), «Humanities Computing as Digital Humanities». Digital Humanities Quarterly, vol. 3, n.º 3. En: <http://digitalhumanities.org/dhq/vol/3/3/000065/000065.html> (Fecha de consulta: 27-04-2017).

TORRES-SALINAS, Daniel, CABEZAS-CLAVIJO, Álvaro, JIMÉNEZ- CONTRERAS, Evaristo (2013), «Altmetrics: Nuevos indicadores para la comunicación científica en la Web 2.0», Comunicar, vol. 21, n.º 41, pp. 53-60.

El bibliotecario de humanidades digitales: una figura aún inexistente en España

Leticia Barrionuevo
Biblioteca Universidad de León

Palabras clave: Bibliotecarios, Bibliotecas universitarias, España, Humanidades Digitales
Keywords: Academic libraries, Digital Humanities, Librarians, Spain

El objetivo que se persigue en esta comunicación es presentar un perfil de bibliotecario especialista en humanidades digitales, desarrollado en países como Estados Unidos pero muy poco conocida en nuestro país. Se analiza la formación académica, experiencia e intereses que requiere un puesto de trabajo de este tipo, a través de entrevistas personales (Kim, 2016) (Baur, Gutiérrez, 2015) y el estudio de convocatorias de empleo específicas. Se muestran además las tareas y responsabilidades que tienen los bibliotecarios de humanidades digitales dentro de los proyectos realizados en un entorno docente y de investigación.

Las bibliotecas universitarias, como Centros de Recursos para el Aprendizaje y la Investigación, prestan un apoyo imprescindible a las tareas docentes e investigadoras en los centros de enseñanza superior. En aspectos tecnológicos las bibliotecas y los bibliotecarios, de instituciones académicas, han evolucionado mucho en poco tiempo por lo que representan una alianza para el desarrollo  de las humanidades digitales en nuestro país. En España, la biblioteca universitaria se ha posicionado como colaboradora activa en proyectos de digitalización de colecciones, gestión de repositorios de acceso abierto y en iniciativas encaminadas al acceso y la preservación de la información, principalmente. Además de los aspectos señalados, Rodríguez-Yunta (2014) subraya la oportunidad que posee la biblioteca universitaria española en el campo de las humanidades digitales al poder ofrecer colaboración y asesoramiento directo a las unidades, departamentos o áreas relacionadas con la disciplina en la creación de recursos digitales, formación para el manejo de herramientas y plataformas sociales y la creación de productos 2.0, entre otros.

Según el reciente informe titulado Digital Humanities in Libraries: A new American Libraries/Gale Cengage survey shows uncertainty and adaptation in this growing field (Varner, Hewe, 2016) que revela los datos obtenidos de una encuesta realizada a bibliotecarios y profesores estadounidenses, el 97% están de acuerdo en que los materiales de los proyectos sobre humanidades digitales deben integrarse en las colecciones de la biblioteca. No obstante, solo un 17% de las participantes asegura que no hay servicios de investigación específicos sobre la disciplina en sus instituciones y casi la mitad de los encuestados señala que el apoyo o colaboración de la biblioteca a la investigación en humanidades digitales se realizada de forma ocasional o de sistemáticamente. Estos datos evidencian que, a pesar que, en Estados Unidos existe la figura consolidada del bibliotecario especialista en humanidades digitales en universidades y centros de investigación, aún no se ha conseguido su implantación integral y su papel es el de socio colaborador, junto con los investigadores, para explorar nuevas soluciones en proyectos de:

  • «Publicación o edición académica digital» mediante el empleo de herramientas de escaneado, y reconocimiento óptico de caracteres para la codificación de textos a través de lenguajes de marcado y otros estándares normalizados (TEI, XML, etc.)
  • «Bibliotecas y colecciones digitales» creadas con la finalidad de difundir y preservar los fondos institucionales.
  • «Minería de datos y de textos», procedimientos que sirven para extraer conominento a partir de grandes cantidades de datos.
  • «Alfabetización digital» mediante cursos de formación, tarea muy desarrollada en las bibliotecas desde siempre y de gran utilidad para los usuarios, ya que les facilita el uso de aplicaciones y herramientas necesarias para la investigación en humanidades digitales.

Por su parte, Leticia Dobrecky (2015) destaca la importancia de los bibliotecarios en el asesoramiento en los procesos de documentación de los proyectos, en brindar estabilidad institucional para mantener los recursos y en la posibilidad de trabajar con los creadores de los mismos asegurando la óptima preservación, utilizando estándares y buenas prácticas.

Las conclusiones y reflexiones extraídas de este análisis nos han servido para justificar y reivindicar la figura del bibliotecario especialista en humanidades digitales y su importante función dentro de los pequeños y grandes proyectos sobre la disciplina, que surgen en España.

Bibliografía

BAUR, Natalie y GUTIÉRREZ, Fernando Javier (2015), «El rol del bibliotecario en las Humanidades Digitales: entrevista a Thomas Padilla». En: <http://www.infotecarios.com/rol-bibliotecario-hd/> (Fecha de consulta: 11-05-2017).

DOBRECKY, Leticia P. (2015), «Humanidades Digitales y Bibliotecas: un nuevo desafío», 47ª Reunión Nacional de Bibliotecarios (ABGRA), Ciudad Autónoma de Buenos Aires (Argentina). En: <http://eprints.rclis.org/25549/ > (Fecha de consulta: 25-05-2017).

KIM, Joshua (2016), «6 questions for a Digital Humanities Librarian». En: <https://www.insidehighered.com/blogs/technology-and-learning/6-questions-digital-humanities-librarian> (Fecha de consulta: 15-05-2017)

RODRÍGUEZ-YUNTA, Luis (2014), «Ciberinfraestructura para las humanidades digitales: una oportunidad de desarrollo tecnológico para la biblioteca académica», El profesional de la información, septiembre-octubre, vol. 23, n.º 5, p. 456. En: <http://www.elprofesionaldelainformacion.com/contenidos/2014/sept/01.pdf> (Fecha de consulta: 03-05-2017).

VARNER, Stewart y HSWE, Patricia (2016), «Digital Humanities in Libraries: A new American libraries/Gale Cengage survey shows uncertainty and adaptation in the growing field». En: <https://americanlibrariesmagazine.org/2016/01/04/special-report-digital-humanities-libraries/ > (Fecha de consulta: 15-05-2017).

Las humanidades digitales: una historia por escribir y por contar (desde la experiencia)

Ángela Celis Sánchez
Universidad de Castilla La Mancha

Cuando en el año 2004 arrancó la primera edición del Máster en Humanidades Digitales de la Universidad de Castilla-La Mancha, muchos de los afanes de un grupo de profesores soñadores y entusiastas, con altas dosis de ambas condiciones, se veían cumplidos con un proyecto que comenzó unos años antes y casi por «serendipia», es decir, por esa suerte de casualidades y circunstancias que tejen de manera caprichosa los hilos del presente hasta convertirlos en una realidad que cambia los destinos de aquellos que se encontraban en ese camino por una u otra razón.

Con un cambio en el plan de estudios de la Facultad de Humanidades de Albacete del año 98, la asignatura Humanidades e Información comenzó a ser impartida, y lo fue por una profesora que, a la sazón, era discípula directa de Francisco Marcos Marín, quien por entonces acababa de publicar la obra de referencia de los inicios de la Informática Humanística en nuestro país y que llevaba por título, precisamente, Informática y Humanidades (1994). Debido a otros encargos académicos en Madrid, esta profesora abandonó la docencia de esa asignatura, que pertenecía al Departamento de Filología Hispánica y Clásica y que pasé a ocupar yo misma tras ganar un concurso de méritos justo al final de mi beca FPU.

Las situaciones que se dieron a partir de entonces tuvieron como término ese Máster que lo fue de referencia durante los años en los que estuvo activo, y en el participaron expertos de la talla de Álex Bía, Domenico Fiormonte, Paul Spence o Elisabeth Bur, por nombrar algunos, todo ello bajo la coordinación y la clarividencia de la profesora Concha Sanz Miguel, ya retirada de las tareas de docencia e investigación.

Durante los primeros años de los 2000, nuestra Facultad punto de referencia de actividades como el Seminario Al filo del 2000: el impacto de las industrias de la lengua; la publicación de la primera revista multilingüe de nuestra universidad, Lamusa digital, que conoció varios números, publicados tanto en papel como en formato digital, del que destacamos hoy el primero, cuyo título fue El impacto social de las Nuevas Tecnologías: la Sociedad de la Información, para el que contamos con plumas tan reconocidas sobre la reflexión de dicho impacto desde diferentes ramas de las humanidades como Manuel Castells, Javier Echeverría, Ignacio Ramonet, Domenico Fiormonte o Joaquim Llisterri; asistimos, asimismo a los encuentros CLiP del año 2000, celebrado en Alicante, al del 2001, celebrado en Duisburg (Alemania), y preparamos el del año 2002, que se organizó en nuestra universidad, en la Facultad de Humanidades de Albacete. Y esto solo por nombrar algunas de las actividades que se realizaron en aquella época, a las que habría que añadir encuentros internacionales para optar a proyectos de investigación europeos, o proyectos de investigación, como el MALBA, que consistió en la digitalización de los fondos del Museo de Albacete.

La historia, como sabemos, se encarga lo mismo de propiciar que de frenar o dificultar proyectos e ilusiones, pero no deja de ser la memoria que debe ser escrita y recogida, primero para entender de dónde venimos y por dónde hemos tenido que caminar y, segundo, para dejar a los que vienen detrás de nosotros las pistas de por qué y cómo ocurrieron los acontecimientos que les permiten tener titulaciones o especialidades universitarias como las que ofrecen las Humanidades Digitales en toda su amplitud.

En este artículo nos proponemos recoger esa parte de nuestra historia más reciente partiendo de la experiencia de todos aquellos que la gestaron y la vivieron en primera persona, además de recoger los testimonios ya escritos y recogidos en diferentes publicaciones por otros colegas como Isabella Leibrant («Humanidades digitales, ¿ciencia ficción o realidad inminente?», Espéculo, nº 33, julio-octubre, 2006) o Paul Spence y Elena González Blanco («A historical perspective of the Digital Humanities in Spain»,  Kommunikation und Fachinformation für die Geschichtswissenschaften, 2014), que ya nombran los orígenes del GCyNT (Grupo de Gestión del Conocimiento y Nuevas Tecnologías de la UCLM). Nuestro objetivo, por tanto, como el de la propia historia, se centrará en proporcionar un conocimiento racional y crítico de «todos aquellos bienes materiales e inmateriales sobre los que, como en un espejo, la población se contempla para reconocerse, donde busca la explicación del territorio donde está enraizada y en el que se sucedieron los pueblos que la precedieron. Un espejo que la población ofrece a sus huéspedes para hacerse entender, en el respeto de su trabajo, de sus formas de comportamiento y de su intimidad» (George Henri Riviêre). Escribir la historia debería siempre ser un deber de todos aquellos que participaron en sus principales acontecimientos.

El patrimonio cultural de Canarias en clave digital

María Esther Núñez Murillo
Universidad Carlos III de Madrid

Virginia Ortiz-Repiso Jiménez
Universidad Carlos III de Madrid

Palabras clave: patrimonio cultural, bibliotecas digitales, colecciones digitales, Canarias.
Keywords: cultural heritage, digital libraries, digital collections, Canary Islands.

«La difusión es uno de los tres pilares en los que se sustenta la gestión del patrimonio y su misión es establecer el necesario vínculo entre el Patrimonio y la Sociedad.» (Guglielmino, 2007: 4). Para difundir el patrimonio cultural a través de colecciones digitales con información estructurada es necesario cumplir con dos criterios fundamentales: la calidad de los datos y la colaboración institucional. Podemos ver estos principios en Europeana (2017), máximo exponente de la difusión del patrimonio cultural en Europa, o en Hispana (España. Ministerio de Educación, Cultura y Deporte, 2017), agregador de Europeana y recolector de las bibliotecas digitales en España. También, a nivel autonómico, podemos ver más ejemplos en sistemas de información del patrimonio cultural como la Guía Digital de Patrimonio Cultural de Andalucía (Instituto Andaluz del Patrimonio Histórico, 2017) o el Sistema de Información del Patrimonio Cultural Aragonés (SIPCA) (Gobierno de Aragón, 2016). Todos ellos trabajan de forma colaborativa, bajo unas directrices comunes de intercambio de metadatos.

En la Comunidad Autónoma de Canarias no existe ningún sistema de información unificado sobre el patrimonio cultural. Esto se debe, entre otros factores, a la ausencia de una colaboración interinstitucional entre las diferentes administraciones públicas: el gobierno autonómico, los cabildos insulares y los ayuntamientos. Pero los proyectos existen y, además, encontramos numerosas iniciativas individuales, en ocasiones dispersas, que atienden a patrimonios específicos o a regiones o instituciones concretas. Juntas suman y componen un panorama global aunque heterogéneo, del estado de la difusión digital del patrimonio histórico y cultural en Canarias. Este trabajo tiene como objetivo poner de manifiesto el estado de la cuestión de este patrimonio y aportar soluciones para mejorar su difusión y su interoperabilidad.

La metodología empleada consta de cinco fases: la localización de proyectos, la elección de parámetros para su evaluación y la recogida de datos mediante la lectura de fuentes bibliográficas, observación directa las sedes web de los proyectos digitales y  la realización de entrevistas a los gestores y técnicos de los mismos, entre finales del 2015 y principios del 2017; el análisis de los datos, interpretación de resultados y redacción de conclusiones y propuestas.

Reunimos un total de 87 colecciones organizadas, que clasificamos en dos grupos principales atendiendo a su grado de desarrollo (v. fig. 1): por un lado, los directorios, listados y galerías de imágenes (33%), y por otro, las bibliotecas digitales y repositorios (67%). Este segundo grupo lo dividimos a su vez en proyectos fuertes (36%) y débiles (31%), según cumplan en mayor o menor medida una lista de 14 parámetros globales que evalúan diferentes aspectos, como la planificación, el mantenimiento, el perfil de los equipos profesionales, los servicios de la interfaz, etc. Esta segunda segmentación permite comprobar que sólo 31 de 87 colecciones digitales organizadas suponen proyectos de alto desarrollo considerados como bibliotecas digitales fuertes o auténticas bibliotecas digitales.

Estos 31 proyectos, de los cuales cinco aún no se han publicado oficialmente, han sido desarrollados por un total de 9 instituciones, entre las que destaca la prolífica actividad de la Biblioteca Universitaria de Las Palmas de Gran Canaria, con un total de 13.

Se observa una clara intención de difundir el patrimonio cultural, sin embargo, muchos proyectos no alcanzan unos niveles altos de desarrollo. Este estudio ha servido para detectar dos de las razones que dan lugar a ello: el desconocimiento de técnicas de difusión sistematizadas y el uso de software inadecuado.

Image and video hosting by TinyPic
Figura 1 Niveles de desarrollo de las 87 colecciones digitales del patrimonio cultural de Canarias (Elaboración propia)

El estudio se ha focalizado en las 58 bibliotecas digitales y repositorios, como proyectos más consolidados de cara a evaluar sus sistemas de información. Un primer acercamiento a estas colecciones nos lleva a observar un predominio del patrimonio bibliográfico y documental en un 62% de los proyectos (36 de 58). Una cifra directamente relacionada con la alta presencia de departamentos relacionados con el área de ciencias de la documentación (archivos, bibliotecas y centros de documentación) en las instituciones que desarrollaron los proyectos, un 57% del total (33 de 58).

A ello podríamos sumar que el 62% (36 de 58) de los equipos de trabajo contó con archiveros, bibliotecarios y documentalistas. Sin embargo, estas altas tasas de profesionales de la información y la documentación no se correlacionan con el desarrollo extendido de sistemas de información sólidos, tal y como hemos visto en la figura 1, y como analizaremos más adelante.

La alta difusión del patrimonio bibliográfico y documental contrasta con la baja difusión del patrimonio arquitectónico, arqueológico o artístico, en muchas ocasiones gestionado por museos, cuyos proyectos suelen ser del tipo directorios, listados y galerías. Sólo el patrimonio etnográfico y el patrimonio inmaterial logran alcanzar unas cifras más acordes a la realidad del patrimonio existente (v. fig. 2).

Se concluye la necesidad de actualizar y mejorar la formación de los diferentes perfiles profesionales de la gestión del patrimonio en materia de difusión digital de las colecciones, a razón de los datos mostrados.

Image and video hosting by TinyPic
Figura 2 Tipos de patrimonio difundido en una comparativa entre las 87 colecciones

Casi la mitad de las colecciones son de carácter virtual, es decir, que solo tienen lugar y existencia como colección en la biblioteca digital. Salvo un caso, esta reunión virtual se realiza de forma manual, y no mediante la función de recolección automatizada de objetos patrimoniales digitalizados, que posibilita el protocolo OAI-PMH. El hecho de que casi no existan proyectos integradores automatizados se debe, entre otras razones, a que sólo un 45% de los proyectos (37 de 58) usa normas, recomendaciones o metadatos estandarizados en las descripciones y catalogaciones del patrimonio cultural, siendo el formato de metadatos más usado el Dublin Core.

A pesar de que la mayor parte de los proyectos afirma usar autoridades y lenguajes controlados, solo un 64% de los proyectos (26 de 58) ofrece tres o más campos de búsqueda controlados en sus interfaces, y sólo ocho proyectos consiguen que estos campos controlados sean de interés básico, es decir, que se correspondan con las clásicas preguntas: quién (persona o entidad), qué (materia) y cuándo (fecha) y dónde (lugar).

Todos estos datos proyectan una falta de interoperabilidad en al menos un 50% de las bibliotecas digitales y repositorios de Canarias, lo que se traduce en una menor visibilidad y en la imposibilidad de reutilizar la información en contextos más amplios. Sólo 21 proyectos de las 58 bibliotecas digitales y repositorios estudiados (36%) son recolectados por proyectos de mayor alcance, como Hispana o Europeana.

Una de las principales conclusiones del estudio es la desconexión que existe entre los diferentes proyectos, aún perteneciendo a la misma administración. Se plantea la necesidad de crear unas políticas regionales acordes con los estándares internacionales, que permitan entablar vínculos de colaboración sólidos entre las diferentes administraciones públicas y también instituciones privadas, con el objetivo de crear de forma conjunta una gran biblioteca digital del patrimonio cultural de Canarias.

Para conectar estas colecciones dispersas y crear un proyecto común se debe contar con las tecnologías de la web semántica, el establecimiento de unas políticas de trabajo con estándares internacionales básicos, y la formación del propio personal en este ámbito. Un 76% de las instituciones contrató a empresas externas, fundamentalmente para realizar laborales informáticas. Sin embargo, este hecho no fomentó las prácticas estandarizadas. Son las propias instituciones las que deben promover la actualización de los conocimientos en materia de difusión digital del patrimonio, y las administraciones del ámbito público las que deben marcar las directrices a seguir. Hasta un 70% de los proyectos (31 de 87) de los proyectos fueron desarrollados por administraciones públicas.

Además de las soluciones mencionadas, se proponen dos líneas de trabajo integradas en  el ámbito de los datos abiertos y enlazados:

  • La creación de un registro de autoridades de personas, entidades, títulos, lugares y eventos propios de Canarias, reutilizando aquellos registros ya existentes a nivel regional, nacional e internacional.
  • La creación de un banco de vocabularios específicos y genéricos para los distintos tipos de patrimonio cultural, reutilizando los ya existentes en los proyectos estudiados, y en combinación con la adaptación de otros de uso nacional e internacional.

Bibliografía

ARAGÓN. Diputación General (2017), Sistema de Información del Patrimonio Cultural Aragonés – SIPCA-. En: <http://www.sipca.es> (Fecha de consulta: 08-07-2017).

ESPAÑA. Ministerio de Educación, Cultura y Deporte (2017) Hispana. En: (Fecha de consulta: 08-07-2017).

Europeana (2017). En: < http://www.europeana.eu> (Fecha de consulta: 08-07-2017).

GUGLIELMINO, Marcelo (2007), «La difusión del patrimonio. Actualización y debate», E-rph: Revista electrónica de Patrimonio Histórico, n.º 1, pp. 195-216. En: <http://www.revistadepatrimonio.eswww.revistadepatrimonio.es/revistas/numero1/difusion/estudios/_pdf/difusion-estudios.pdf> (Fecha de consulta: 30-07-2017).

Instituto Andaluz del Patrimonio Histórico (IAPH) (2017), «Guía Digital del Patrimonio Cultural». En: <http://www.iaph.es/web/canales/conoce-el-patrimonio/index.html> (Fecha de consulta: 08-07-2017).

Eviterna-HAD (Revista académico-científica de Historia del Arte Digital para jóvenes investigadores): PDF’s interactivos para una mejor visualización de contenidos en torno al análisis dinámico de datos

Catalina Vásquez Hulsbus
Universidad Finis Terrae

Leticia Crespillo Marí
Universidad de Málaga

Sandra Medina Bueno
Universidad de Málaga

Nuria Rodríguez Ortega
Universidad de Málaga

Palabras clave: Revista, Investigación, Historia del Arte, Digital
Keywords: Journal, Research, Art History, Digital

Eviterna-HAD (Revista académico-científica) se presenta como plataforma sin ánimo de lucro dedicada a la difusión y publicación de trabajos de investigación y/ o reflexión crítica realizada por jóvenes investigadores en el ámbito de la Historia del Arte Digital. Si bien, ya hay publicaciones dedicadas a la Historia del Arte Digital en particular y las Humanidades Digitales en general, añadimos un plus con nuestro proyecto a través la implementación de PDF’s interactivos[1]. Una vez observada la necesidad de mostrar ciertos resultados de carácter dinámico y, ante la imposibilidad muchas veces de añadir secuencias en movimiento que expresen de una mejor manera las conclusiones ligadas a una investigación determinada alrededor del análisis dinámico de datos y su representación gráfica, ofrecemos la oportunidad de que en estos documentos (accesibles a través del portal web y descargables en formato PDF) puedan ser visualizados en movimiento junto al texto, para una mejor adecuación visual de los contenidos a las imágenes que los ilustran.

Este proyecto, que está en fase inicial, nace como ampliación al proyecto Revista Eviterna (Revista Universitaria académico-científica e internacional de Humanidades, Arte y Cultura) (ISSN: 2530-6014) que se inicia en noviembre de 2016, dedicado a estudios más tradicionales de la Historia del Arte, la Cultura y las Humanidades. En general, la puesta en marcha de esta sección específica de Historia del Arte Digital, busca ofrecer un mayor conocimiento y acercamiento sobre la materia a los jóvenes investigadores motivándoles para que se interesen y aporten su conocimiento desde el primer minuto en que comienzan la especialidad universitaria de Historia del Arte y que puedan desarrollarlo en pos de un crecimiento futuro acerca a esta rama que hoy en día plantea nuevos retos, nuevas preguntas y nuevos paradigmas epistemológicos necesarios para el estudio del hecho artístico, cultural y humanístico desde el estudio transdisciplinar e interdisciplinar junto a las nuevas tecnologías computacionales.

Este proyecto entiende el encuentro que se ha producido en los últimos años entre arte, ciencia, tecnología y, sobre todo, en lo relativo a las humanidades, planteando debates teórico-críticos que han dado pie a nuevas cuestiones en torno a la investigación en la Historia del Arte, con enormes resultados que rompen con la manera tradicional de producción científica en este ámbito. Esto permite el desarrollo de nuevas herramientas que se adecuen y se adapten a las nuevas formas de estudiar las humanidades, de la mejor manera y desde la innovación técnica.

Eviterna-HAD pretende fomentar el trabajo en red, como plataforma donde los jóvenes investigadores puedan iniciarse, expresarse y formarse en este campo, encontrando un contenido de calidad y novedoso, participando de las diferentes realidades que nos ofrecen los estudios actuales para el desarrollo de proyectos y, sirviendo a la reflexión desde la colaboración y la innovación educativa.

Por lo tanto, el proyecto trabaja por la consecución de un triple objetivo:

  1. Promocionar, consolidar y visibilizar la investigación histórica y teórico artística enmarcada en al ámbito de la Historia del Arte Digital, esto es, en el espacio de convergencia entre tecnologías computacionales, medio digital y cultura artística.
  2. Generar un recurso de consulta, reflexión y debate.
  3. Desarrollar una infraestructura adecuada para la publicación de estas investigaciones, que requieren de elementos de representación visual específicos.
  4. En relación con lo anterior, experimentar con nuevos modos de publicación digital.

Planteamos un proyecto dirigido a la promoción de la investigación, así como a la difusión, desarrollo y formación de los jóvenes investigadores (alumnos en formación) de Historia del Arte, desde un punto de vista novedoso, poniendo en práctica una metodología de innovación educativa y formativa que busca dar respuestas a algunas de las problemáticas que se plantean en la presentación de resultados de ciertas investigaciones que requieren de una representación visual más dinámica e interactiva para ser comprendidas en su totalidad.

Por tanto, Eviterna-HAD busca un cambio en la manera en la que se plantea el aprendizaje de la Historia del Arte Digital dentro del propio periodo formativo del investigador joven que se materializará en investigaciones y trabajos teórico-prácticos accesibles desde la web <http://www.revistaeviterna.com> y en un formato interactivo que lo motive en su desempeño.

Image and video hosting by TinyPic
Figura 1 Ejemplo de visualización dinámica de datos (gráficos interactivos)

Financiación

Este trabajo forma parte de los resultados del Proyecto de Innovación Educativa Metodologías de prototipado, de design thinking e innovación tecnológica para el desarrollo de proyectos artístico-culturales (PIE15-188) financiado por la Universidad de Málaga.

[1] Imágenes y gráficos en movimiento (gifs, clips, secuencias históricas de datos).

Mapear la historia del teatro en Portugal

José Camões
Centro de Estudos de Teatro

Bruno Henriques
Centro de Estudos de Teatro

José Pedro Sousa
Centro de Estudos de Teatro

Palabas clave: Historia del teatro, Humanidades digitales, 3D
Key-words: Theatre History, Digital Humanities, 3D

En este panel serán presentados los trabajos desarrollados por el grupo História do Teatro e do Espectáculo del Centro de Estudos de Teatro (CET) de la Faculdade de Letras da Universidade de Lisboa. Se centran en líneas de investigación que hace ya algún tiempo vienen ganando una expresión relevante en los proyectos digitales del CET. Se sistematiza una metodología que permite realizar estudios cada vez más complejos a partir de un diálogo interdisciplinario, entre áreas del saber tan distintas y a la vez tan complementares como pueden ser la arquitectura, los repertorios, la historia del espectáculo, etc. Basada en el estudio de las fuentes documentales primarias, nuestra investigación pretende contribuir para la historia de la estética teatral, del gusto y de las mentalidades. Así, nuestro panel tendrá como polo privilegiado la unidad el edificio teatral -corral, coliseo, teatro-, distribuyéndose por tres ejes temáticos centrales: 1) proyectos arquitectónicos de espacios desaparecidos, 2) la actividad teatral desarrollada en dichos espacios (directores, empresarios, autores, actores, compañías, repartos, repertorios, públicos, etc.) y 3) la recepción de los espectáculos/textos ahí presentados (censura, publicación, etc.).

Esta forma de Arqueología de la Historia del Teatro permite realizar una investigación rigurosa que puede conducir a la reconstrucción virtual de los espacios teatrales desaparecidos a partir de fragmentos de memoria(s) dispersos en una gran variedad de soportes documentales que sólo necesitan de una composición.

Estudios Ibéricos y Humanidades Digitales

Esther Gimeno Ugalde
Boston College

Santiago Pérez Isasi
Universidade de Lisboa

Teresa Pinheiro
TU Chemnitz

Palabras clave: Estudios Ibéricos, Cartografía digital, Bases de datos, Memoria
Keywords: Iberian Studies, Digital cartography, Databases, Memory

El campo de los Estudios Ibéricos, que parte del estudio comparativo del complejo sistema literario y cultural de la Península Ibérica, ha tenido un amplio desarrollo en los últimos años, tanto en Europa como en los Estados Unidos. Su ubicación ambigua, entre la Literatura Comparada, los Estudios Culturales y los Estudios de Área, ha contribuido a una diversidad teórica y metodológica que lo han convertido en un campo abierto a las aportaciones de los Estudios de Género, los Queer Studies o los Animal Studies, por citar solo algunos ejemplos.

Sin embargo, no existían hasta ahora proyectos ni líneas de investigación específicas que propusieran la intersección de los Estudios Ibéricos con el campo de las Humanidades Digitales. En este panel presentamos tres proyectos, en diferentes estados de desarrollo, que intentan establecer esta relación, y que ofrecen, con diversas metodologías y a través de diversos materiales, un mapeado (literal o figurado) de las relaciones literarias, culturales o históricas entre Portugal y España, incluyendo las que se establecen con otras áreas lingüísticas como Cataluña, Galicia o el País Vasco.

El proyecto IStReS: una base de datos de referencia para los Estudios Ibéricos

Esther Gimeno Ugalde
Boston College

Santiago Pérez Isasi
Universidade de Lisboa

 

 

Esta comunicación tiene por objetivo presentar el proyecto IStReS (Iberian Studies Reference Site), actualmente en desarrollo, una herramienta que consideramos que puede ser de gran utilidad para investigadores del área de los Estudios Ibéricos Culturales. Se trata de un proyecto interdisciplinar que se sitúa en la intersección de los Estudios Ibéricos y las Humanidades Digitales, un área hasta ahora poco explorada.

El objetivo del proyecto IStReS es reunir, a través de una base de datos relacional, la bibliografía académica del campo de los Estudios Ibéricos producida durante las últimas dos décadas, es decir, en el periodo en el que el campo ha alcanzado un mayor grado de desarrollo y reconocimiento científico e institucional. Esta base de datos incluye aquellas referencias bibliográficas que, de acuerdo con la definición más extendida de los Estudios Ibéricos (Resina 2009, Pérez Isasi y Fernandes 2013, Santana 2016), analizan las relaciones policéntricas entre diversas culturas de la Península Ibérica en diferentes momentos históricos.

A su vez, esta base de datos se ofrece al público a través de una web que contiene informaciones sobre el propio proyecto, sobre actividades relacionadas con el campo de los Estudios Ibéricos, y un directorio de especialistas del campo en que se recogen sus áreas de interés y sus publicaciones más relevantes.

En esta comunicación presentaremos la base de datos y la página web que la alberga, y discutiremos también algunos de los retos metodológicos a los que nos enfrentamos durante las fases iniciales del proyecto: establecimiento de límites (cronológicos, temáticos, etc.), selección de la bibliografía, etc. Plantearemos también las decisiones técnicas que se tomaron a lo largo del desarrollo de la base de datos, en particular en relación con la selección de Zotero como herramienta de trabajo, y las consecuencias (positivas y negativas) que ha podido tener para el resultado final.

Como conclusión, reflexionaremos sobre la forma en la que esta base de datos puede convertirse en una herramienta de referencia para investigadores interesados en el campo de los Estudios Ibéricos, y constituir un punto de partida para el establecimiento de redes, plataformas de intercambio y futuros proyectos de investigación.

 

Mapa digital de las relaciones literarias ibéricas (1870-1930): cuestiones teóricas y metodológicas

 Santiago Pérez Isasi
Universidade de Lisboa

 

En los últimos años, el espacio ha pasado a ocupar un lugar central en las investigaciones Humanísticas, un lugar central hasta ahora poco explorado y que ofrece abundantes vías de desarrollo. En combinación con el desarrollo de herramientas informáticas de anotación geográfica, este spatial turn ha dado lugar la nacimiento de las Cartografías Digitales, cuyas aplicaciones van mucho más allá de la Geografía, adentrándose en campos como la Historia, la Sociología y, también, los Estudios Literarios.

El proyecto de Mapa Digital de las Relaciones Literarias Ibéricas (1870-1930), financiado por la Fundação para a Ciência e a Tecnologia, se plantea como aplicación de las metodologías de las Cartografías Literarias al campo concreto de los Estudios Ibéricos, proponiendo una organización geográfica, multifocal y no cronológica de los datos relativos a las relaciones literarias entre Portugal y España (y también otras áreas culturales, como Cataluña, Galicia o el País Vasco) en el tránsito entre el siglo XIX y XX.

Para lograr este objetivo, será necesario, en primer lugar, crear una base de datos que recoja los autores, publicaciones, eventos, instituciones y movimientos literarios relevantes en el periodo escogido; estos datos serán, después, geolocalizados empleando herramientas informáticas; y por fin se ofrecerá una visualización cartográfica lo más flexible posible, y que ofrezca una información estratificada en función de los diversos tipos de usuarios (estudiantes, investigadores, visitantes ocasionales).

En esta comunicación pretendemos estudiar algunas de las cuestiones teóricas y metodológicas surgidas durante las fases iniciales del proyecto, por ejemplo en la selección de los datos relevantes para evitar una circularidad entre la hipótesis de partida y las conclusiones del proyecto; en el diseño de la propia base de datos subyacente a todo el proceso, o en las opciones de visualización.

La Segunda República a través de los monumentos

Teresa Pinheiro
TU Chemnitz

Sin embargo, el empleo de instrumentos digitales como máquinas de búsqueda virtual y programas de visualización como google maps permite comprobar la existencia de varias docenas de monumentos directa o indirectamente relacionados con la Segunda República en ciudades que van desde A Coruña hasta Cádiz, desde Badajoz hasta Girona. Esto nos permite, por un lado, relativizar la hipótesis de una memoria ausente de la República y, por otro lado, diferenciar las distintas memorias (y sendas agendas políticas) que nos ofrece el territorio español, ya que los monumentos dedicados a la República en Cataluña revelan una memoria distinta de los monumentos encontrados en Euskadi, Galicia, Andalucía o Castilla. Así pues, las técnicas digitales con potencial de generar grandes cantidades de datos permiten una mirada nueva hacia fenómenos conocidos.

Por otro lado, la aplicación de técnicas digitales y su consecuente aumento exponencial de datos nos plantea también nuevas cuestiones y retos. ¿Cómo representar la intersección entre el eje espacial y el eje temporal de los monumentos? ¿Cómo dar cuenta de las discontinuidades espacio-temporales (monumentos erigidos, destruidos o guardados bajo tierra o en almacenes, erigidos de nuevo y trasladados otra vez)? ¿Cómo relacionar los resultados de una investigación basada en big data con los resultados de la investigación clásica basada en el trabajo de campo?

En esta comunicación tomaré mi investigación sobre monumentos relacionados con la Segunda República como punto de partida para reflexionar sobre el potencial y los retos de las técnicas digitales en las humanidades.

Bibliografía

NORA, Pierre (1984), Les Lieux de Mémoire, 1: La République, Parías, Gallimard.

PÉREZ ISASI, Santiago y FERNANDES, Ângela (2013), Looking at Iberia. A Comparative European Perspective, Oxford, Peter Lang.

RESINA, Joan Ramon (2009), Del Hispanismo a los Estudios Ibéricos. Una propuesta federativa para el ámbito cultural, Madrid, Biblioteca Nueva.

SANTANA, Mario (2016), «Presentación», Pasavento. Revista de Estudios Hispánicos, vol. IV, n.º 1 (Monográfico: Traducción y literaturas ibéricas), pp. 275-279.

Relecturas de la Edad de Plata: Análisis de bibliotecas, colecciones y ediciones digitales

Dolores Romero López
Universidad Complutense de Madrid

José Luis Bueren
Universidad Complutense de Madrid

Alicia Reina
Universidad Complutense de Madrid

José Calvo Tello
Universidad de Würzburg

Teresa Santa María
Universidad Complutense de Madrid

Hanno Ehrlicher
Universidad de Augsburg 

Palabras clave: Historia digital, Bibliotecas digitales, Ediciones digitales, Edad de Plata
Keywords: Digital History, Digital Library, Digital Collections, Digital Edition, Spanish Silver Age Literature

El estudio de la cultura española desde finales del siglo XIX y primer tercio del siglo XX ha experimentado la revisión crítica de algunos conceptos que durante algún tiempo ocultaron las verdaderas raíces de su Modernidad estética. Los métodos comparativos, los estudios culturales y la localización y análisis de las obras de autores considerados secundarios han constituido ámbito