Los Gestos iOS en iPhone e iPad (Parte 1)

Los dispositivos móviles táctiles nos han cautivado por su rapidez y sencillez. La sensación de tocar las aplicaciones para sacarle su máximo poder es algo increíble. Mover tu avatar en un juego, pulsar el botón de Play para escuchar los Top 50, ampliar el zoom de ese paisaje tan bonito que estás fotografiando para destacar algo que te ha encantado, dibujar un boceto de la casa de tus sueños, y tantas cosas que puedes hacer con los gestos de tus dedos

Desde que Steve Jobs lanzó el primer iPhone el año 2007, Apple ha estado trabajando arduamente para dotar al sistema operativo iOS de varios eventos táctiles para que tu experiencia sea muy positiva. Para ello, Apple desarrolló el framework UIKit que está disponible para los dispositivos iPhone, iPad, Apple Watch, Apple TV, HomePod y Apple CarPlay. A continuación, te he escrito los gestos más importantes con su nombre en español e inglés:

  • Pulsar o Tap.
  • Arrastrar o Drag.
  • Golpecito o Flick.
  • Arrastre rápido o Swipe.
  • Golpe doble o Double Tap.
  • Pellizco o Pinch.
  • Tocar y sostener o Touch and Hold.
  • Agitar o Shake.

 

Puedes ver en acción estos gestos en el vídeo que te he creado usando la sección  Gestures  que está en la iOS Human Interface Guidelines de Apple.

VIDEO Los Gestos iOS con URL YouTube:

https://youtu.be/JD_33mc9MXo

 

Una vez que tenemos esta idea de conjunto de estos ocho gestos que reconoce el sistema operativo iOS, es el momento de introducirse en cómo se programan los gestos.

El framework UIKit dispone de la clase base UIGestureRecognizer para establecer la lógica para implementar los toques que recibe la pantalla. El detalle de las subclases, propiedades y métodos que Apple ha creado está en su Developer Documentation. Las subclases tienen variables y funciones que habilitan características específicas para cada tipo de gesto. Por ejemplo, si utilizas el gesto de pellizco o pinch para aumentar el tamaño de una foto, es de gran ayuda tener la propiedad scale para conocer exactamente el valor de escala que aumentará el gesto a esa foto. De igual forma, la variable velocity dirá la rapidez con la que el usuario ha hecho este gesto de aumentar, siendo muy útil esta información para añadirle una animación muy atractiva acorde a la velocidad del gesto. Las subclases disponibles son:

  • UITapGestureRecognizer
  • UIPinchGestureRecognizer
  • UIRotationGestureRecognizer
  • UISwipeGestureRecognizer
  • UIPanGestureRecognizer
  • UIScreenEdgePanGestureRecognizer
  • UILongPressGestureRecognizer

En el siguiente vídeo podrás ver el contenido de UIGestureRecognizer en Developer Documentation:

VÍDEO UIGestureRecognizer Apple Developer Documentation con URL YouTube: https://youtu.be/jBbNsJLkL8s

 

Ahora que ya identificas los nombres de los gestos en español e inglés, así como la información que Apple ofrece para poder implementar el código para los gestos en una aplicación, llega el momento de ver un ejemplo real. En la segunda parte de este artículo podrás ver en detalle cómo escribir el código Swift necesario para pulsar sobre un objeto y moverlo por la pantalla. Además, este Playground lleva una serie de animaciones para hacer más atractivos los eventos táctiles.

Aquí puedes ver la Live View del Playground que programarás paso a paso en la parte 2 con Xcode 10 y Swift 4.2:

VÍDEO Playground Live View gestos iOS pulsar y arrastrar con URL YouTube: https://youtu.be/6_yMXV77z5Y

¿Quieres aprender más?

Experto Universitario Innovación usando la tecnología iOS con programación Swift – Proyectos Europeos

Icono Experto Universitario Innovación usando la tecnología iOS con programación Swift - Proyectos Europeos

Experto Profesional Aplicaciones iOS con Swift para Dispositivos Móviles

Icono Experto Profesional Aplicaciones iOS con Swift para Dispositivos Móviles

Programación Swift y sus nuevos paradigmas

Icono Programación Swift y sus nuevos paradigmas

Desarrollador de elementos iOS

Icono Desarrollador de elementos iOS

Creación profesional de aplicaciones desde la idea hasta el App Store

Icono Creación profesional de aplicaciones desde la idea hasta el App Store

Autor: Pedro Hernández.

Crónica del curso de verano DH@Madrid Summer School 2018

Bajo el título Aplicaciones y posibilidades del procesamiento del Lenguaje Natural para la Investigación en Humanidades por quinto año consecutivo, DH@Madrid Summer School 2018 ha tenido lugar en la UNED en su emblemático salón de actos Andrés Bello.

Durante los tres días de curso, se ha propuesta una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. De esta manera, el curso se ha dirigido a todos aquellos interesados en métodos digitales de investigación aplicados a las humanidades.

Nuevamente en esta oportunidad, los contenidos del curso, han podido seguirse de forma presencial y online, y ya se puede acceder en diferido.

Esta nueva edición del curso de verano ha contado entre otras, con la colaboración de las infraestructuras europeas de investigación CLARIN y DARIAH, así como de distintas redes de humanidades digitales, y ha sido organizado por el LINHD en el marco del proyecto POSTDATA.

DH@Madrid 2018

El lunes comenzó con la bienvenida y la presentación del curso por parte de los directores, Clara I. Martinéz Cantón y Salvador Ros Muñoz.

A continuación, Elena Álvarez Mellado, nos deleitó con su ponencia de “La lengua al microscopio: introducción básica al NLP desde Humanidades”, explicando las posibilidades que permiten las herramientas de la Lingüística computacional, mediante el análisis informático de grandes cantidades de textos. Su ponencia ha comenzado con una comparación entre el tabú que existía en época medieval en relación a la disección de cuerpos humanos para comprender su funcionamiento, y el peso de la tradición médica de Galeno, cuyas teorías estaban basadas principalmente en la observación, pero no se contrastaban. Explicó, además, las tareas básicas de un ordenador a la hora de procesar un texto.

 

La tarde del lunes se cerró con la presentación de Jennifer Edmond, Directora de proyectos estratégicos del Trinity Long Room Hub Arts & Humanities Research Institute, contándonos sobre la infraestructura DARIAH y de las ventajas de crear y compartir una infraestructura común que nos facilite el acceso a redes de trabajo y al conocimiento compartido entre diversos actores. De esta manera, tener una estructura también permite acercarse y ajustarse mejor a estándares como Open Science, incrementa las posibilidades de obtener financiación y promueve la sostenibilidad a lo largo del tiempo de los resultados. Permite además, estar al día de qué se está haciendo en el entorno de tu investigación.

El día martes, comenzó con la charla de Pablo Ruiz Fabo que ha introducido la noción expresión regular (regular expression- regex) y ha mostrado con diversos ejemplos y ejercicios cómo explorar un corpus de textos mediante el uso de regex, aprendiendo a modificar cadenas de texto eficazmente. La exposición teórica estuvo acompañada de ejercicios en donde se aprendieron, entre otras, las diferencias entre los elementos literales y los especiales. Durante su ponencia Pablo ha proporcionado una serie de enlaces donde poder usar las
expresiones regulares en Internet y también unos editores para poder descargarse en los ordenadores.

Mikel Iruskieta, investigador del Grupo IXA de la Universidad el País Vasco, exponía la potencialidad de Python y el lenguaje de programación para extraer o generar corpora textuales y explotarlos, guardando los resultados obtenidos. También, explicaba las tareas de PLN que pueden realizarse con Python, como la extracción de información de textos de distinto tipo, buscar términos en la web y comparar frecuencias, el desarrollo de programas basados en análisis lingüísticos y búsquedas basadas en diccionarios, guardando toda la información obtenida en XML. Asimismo, explicaba para qué podían ser útiles las infraestructuras del procesamiento del lenguaje, como CLARIN-K.

Por su parte, Mª Luisa Díez Platas, Investigadora del proyecto POSTDATA, se centró en la presentación de una herramienta que ha sido desarrollada en el Proyecto POSTDATA para el reconocimiento de entidades nombradas: Hispanic Medieval Tagger (HisMeTag). Constituye una de las tareas más importantes en la extracción de información y consiste en el reconocimiento y la clasificación de nombres de personas, lugares, organizaciones, expresiones numéricas, expresiones temporales, etc.  Su principal novedad es el reconocimiento de entidades nombradas en textos medievales. Pero, además, gracias a HisMeTag ha sido posible la creación de una taxonomía de entidades que puede servir de gran utilidad para los humanistas en su tarea de análisis de los textos.

La tarde del martes finalizó con la ponencia de Elena González-Blanco, investigadora principal del Proyecto POSTDATA y General Manager of Europe en CoverWallet. Elena comenzó con un repaso de lo que son las Humanidades Digitales y la situación actual, con el machine learning y la inteligencia artificial. Comentó que la inteligencia artificial es una etiqueta que engloba muchas cosas: reconocimiento facial o de escritura; máquinas que pueden llevar a cabo razonamientos complejos, como jugar al ajedrez; algoritmos complejos que se resuelven solos; los chatbots y los asistentes virtuales o los medios de transporte que se conducen solos. Son tecnologías diversas que se aplican a diferentes ámbitos, pero que todas tienen un punto en común: la transformación digital. No es la disciplina la que marca la diferencia, sino la tecnología y el tipo de materia sobre la que se aplica.

El último día de curso, comenzó con la charla de Antonio Robles de la UNED y José Manuel Fradejas de la Universidad de Valladolid. Se puso de manifiesto la necesidad de la interdisciplinariedad, uniendo el aspecto informático con el humanístico. En este sentido, el lenguaje R no solo sirve para el análisis de textos sino también para realizar análisis estadísticos y visualizaciones avanzadas. El profesor Fradejas explicó qué es la estilometría y señaló cuales son los libros reveladores en el campo de la estilometría para él. La charla de José Manuel también tuvo una gran parte de práctica para demostrar otras potencialidades del PLN.

A continuación, Gimena del Río, investigadora de CONICET- Argentina, explicó en qué consistía el proyecto Pelagios, y lo que es un gazetteer (una base de datos histórico-geográfica que permite trabajar en sistemas de información geográfica con coordenadas geotópicas). La estructura Pelagios está centrada en datos geográficos como entidades nombradas y trabaja distintas tecnologías: Linked Open Data, Geographical Information Systems, Natural Language Processing, GeoJson, XML-TEI, etc. Además su uso es muy intuitivo, como se pudo comprobar
durante la práctica.

La intervención de Helena Bermúdez Sabel, investigadora del Proyecto POSTDATA, fue de carácter eminentemente práctico. Comenzó, sin embargo, con una breve introducción sobre en qué consiste XML y sus ventajas respecto a otros formatos, al unir un lenguaje humano y uno informático. Así, la finalidad principal del lenguaje XML es la de modelar la estructura inherente y las propiedades semánticas de diversos documentos culturales por medio de hierarquías y estructuras ordenadas. Entre las aplicaciones prácticas de XML para las Humanidades Digitales cabe destacar la identificación de estrofas y versos y una serie de recursos estilísticos.

Para finalizar y a modo de colofón del curso, Enrique Vidal, catedrático de la Universidad Politécnica de Valencia, explica cómo llevar a la práctica en un proyecto de investigación, el Procesamiento del Lenguaje Natural. Hace algunas décadas numerosos investigadores vaticinaron el fin del papel como modelo de transmisión del texto escrito. Sin embargo, este vaticinio no se cumplió y hoy en día existe una buena cantidad de textos escritos a mano que no han sido procesados aún mediante herramienta informática alguna. Las tecnologías que se están desarrollando actualmente para procesar textos manuscritos son cada día más numerosas. Explicó que se han desarrollado tecnologías de interacción persona-máquina que permiten conseguir transcripciones perfectas con un esfuerzo mucho menor del que supondría una transcripción manual por parte de un ser humano. Estos son los llamados métodos interactivo-predictivos de transcripción asistida. Además, se han desarrollado tecnologías de predicción probabilística de texto en imágenes, que se pueden aplicar directamente a las imágenes sin tenerlas explícitamente transcritas.

¡¡¡Muchas gracias a todos por la participación…los esperamos el año que viene!!

 

DH@Madrid Summer School 2018- ¡Matrícula abierta!

La escuela de verano DH@Madrid Summer School 2018 es un evento anual que se organiza cada año desde 2014. En esta oportunidad, presentaremos el curso “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en humanidades” que se  llevará a cabo entre los días 9 y 11 de julio de 2018 en la UNED. 

Este año, el curso DH@Madrid Summer School se propone ser una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. Su meta es introducir a los estudiantes con una formación en humanidades o ciencias sociales el contenido técnico buscando un enfoque claro y diverso, haciéndoles ver las distintas posibilidades a la hora de encarar su trabajo o investigación.

 

 

Contará ademas, con la colaboración de importantes expertos internacionales en Humanidades Digitales, tecnología semántica y procesamiento del lenguaje y estará dirigido a especialistas en Humanidades Digitales, lingüistas, investigadores, profesores, académicos, y estudiantes tanto de máster como de doctorado, preferentemente en disciplinas humanísticas, pero también en disciplinas como informática o ciencias de la información.

 

La escuela está cofinanciada por el proyecto ERC POSTDATA y la Fundación UNED.

                  ¡Entra en la página del curso: http://linhd.uned.es/p/dh-verano-2018/ y no dudes en preguntarnos!

POSTDATA imparte taller sobre datos abiertos enlazados en Würzburg

Durante este mes de abril algunos de los miembros de POSTDATA se desplazaron a Würzburg para impartir un taller sobre datos abiertos enlazados y sobre procesamiento del lenguaje natural.

Este evento fue organizado por el grupo de investigación CLiGS (Computational Literary Genre Stylistics) que está vinculado a la Universität Würzburg.

Del 23 al 25 de abril, los participantes de este taller tuvieron la oportunidad de explorar diferentes recursos de datos abiertos enlazados utilizando el lenguaje de consulta SPARQL. Además, hubo una sesión dedicada al enriquecimiento de corpus literarios con RDFa como mecanismo para traducir la compleja semántica de TEI a la Web. El tercer día estuvo centrado en el aprendizaje de diferentes técnicas de procesamiento del lenguaje natural. Con una marcada vertiente práctica, los miembros de GLiGS tuvieron tiempo para poder aplicar todas las herramientas presentadas.

El taller se clausuró con una charla titulada Linked Open Data: Unchain your corpora en la que se aprovechó para presentar algunos de los resultados obtenidos durante los días precedentes.

Agradecemos una vez más al grupo CLiGS por la excelente acogida que hicieron de nuestros miembros en Würzburg!

 

DH@Madrid Curso de Verano 2018: “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en HD”

La UNED a través de su oferta formativa de cursos de verano 2018 y organizado por el LINHD y el proyecto ERC POSTDATA, ofrece el curso “Aplicaciones y posibilidades del procesamiento del lenguaje natural para la investigación en Humanidades Digitales”

Este curso se propone ser una introducción al Procesamiento del Lenguaje Natural centrado en su aplicación a los problemas propios de la investigación en Humanidades Digitales. Su meta es introducir a los estudiantes con una formación en humanidades o ciencias sociales el contenido técnico buscando un enfoque claro y diverso, haciéndoles ver las distintas posibilidades a la hora de encarar su trabajo o investigación.

El curso de verano de Humanidades Digitales de la UNED se celebra anualmente desde 2014. Está dirigido todos aquellos interesados en métodos digitales de investigación aplicados a las humanidades, y centrado principalmente en personas con formación humanística, pero abierto a todo aquel interesado.

El curso se oferta tanto de forma presencial como online en directo y en diferido. Del 9 al 11 de julio de 2018 en la UNED.

 

Si no dispones de tiempo para abordar en profundidad tu formación durante el año o quieres especializarte, esta es una buena oportunidad de aprender y aprovechar las vacaciones para afrontar la nueva temporada con un perfil profesional más completo, con nosotros.

 

Mas información

Taller sobre introducción al análisis de texto con R dictado por Salvador Ros en Trinity College, Dublín

Salvador Ros, Director de LINHD, miembro del equipo de POSTDATA y Subdirector de Tecnología en ETS de Ingeniera Informática de la UNED fue invitado a participar de la serie de talleres “Digital Scolarship and Skill” que dicta la Trinity College de Dublin.

El Dr. Ros dictó el taller de “Introducción al análisis de texto con R”, el pasado 13 de marzo, proporcionando una introducción a las teorías, prácticas y métodos para el análisis cuantitativo en Humanidades usando el lenguaje de programación R. El taller se dividió en tres partes durante las cuales los estudiantes han sido introducidos a los conceptos clave y técnicas de microanálisis (el estudio de un texto), mesoanálisis (el estudio de un pequeño corpus) y macroanálisis (el estudio de un corpus grande). El taller combinó conferencias y debates con ejercicios prácticos.

Enlace al programa http://dh.tcd.ie/dh/digital-scholarship-and-skills-workshop-series-hilary-term-2018/

 

 

Crónica del curso de verano DH@Madrid Summer School 2017

Bajo el título Tecnologías semánticas y herramientas lingüísticas para humanidades digitales/Semantic web technologies and language resoruces for digital humanities, por tercer año consecutivo la DH@Madrid Summer School 2017 de la UNED ha sido un hervidero de ideas y conocimientos sobre distintos métodos digitales de investigación aplicados a las Humanidades. Investigadores en Filología y Humanidades Digitales han podido aprender una gran variedad de herramientas tecnológicas con las que poder posicionar sus proyectos de investigación en el centro del actual contexto académico digital.

Los contenidos de este curso que, de nuevo, han podido seguirse de forma presencial y online, y a los que se podrá acceder en diferido, se han centrado en las tecnologías del lenguaje y, fundamentalmente, en las tecnologías semánticas. El curso de verano de Humanidades Digitales 2017 que está avalado por la infraestructura europea de investigación CLARIN, ha sido cofinanciado por uno de los proyectos que desarrolla el LINHD: POSDATA, que precisamente está basado en la aplicación de procedimientos semánticos para crear un modelo único que haga interoperables los datos pertenecientes a las distintas tradiciones poéticas.

Durante los tres días que ha durado el curso, eminentemente práctico, se ha demostrado la aplicación a proyectos de Humanidades de tecnologías como el lenguaje de programación R, especialmente para estudios de estilometría o métodos como las expresiones regulares.

La tarde del lunes se cerró trabajando sobre metadatos y testando el entorno virtual de investigación EVILINHD para la inclusión de esquemas de metadatos y vocabularios controlados. Aparte de las sesiones prácticas, también ha habido espacio para repasar los fundamentos de las Humanidades Digitales y seguir la trayectoria personal de mano de Susan Schreibman en la conferencia plenaria que abrió la mañana del miércoles.

Para todos aquellos que no conocían, o sabían poco acerca de la infraestructura CLARIN, se pudo visualizar su trabajo en la presentación de los proyectos de los centros Clarin-K españoles.

Los métodos y conceptos asociados a Linked Open Data estuvieron presentes a lo largo de todo el curso de verano, pero fue el último día cuando las sesiones se centraron en casos concretos de utilización los datos abiertos y enlazados en las Humanidades.

 

 

DH@Madrid Summer School 2017

La escuela de verano DH@Madrid Summer School 2017 es un evento anual que se organiza cada año desde 2014. Los destinatarios son principalmente humanistas digitales y el propósito de la escuela es enseñarles tecnologías del lenguaje, en general, y tecnologías semánticas, en particular; que podrán utilizar para desarrollar sus proyectos y/o investigaciones.

Este año, la escuela DH@Madrid Summer School se enfoca como una introducción a la aplicación de tecnologías web semánticas y recursos del lenguaje digital. Uno de los objetivos más importantes del evento será concienciar  sobre la infraestructura, las herramientas y los servicios de la infraestructura ERIC Clarin a nuestros alumnos investigadores: investigadores de humanidades digitales de países de habla hispana.

Otro objetivo del evento es involucrar a la comunidad de investigadores en el uso de herramientas e infraestructuras CLARIN. Compartiremos con ellos a los usuarios de la infraestructura CLARIN en nuestro proyecto EVILINHD donde hemos integrado el repositorio LINDAT Clarin. Además de ser un centro español Clarin K, nos daremos la oportunidad de mostrarles otras herramientas que se han desarrollado en otros centros Clarin-K (Analhitza, Contawords).

También queremos compartir nuestra experiencia con participantes de otros países líderes de Clarín, como las iniciativas de Italia y Finlandia o como Argentina, que conoce las herramientas de CLARIN gracias a nuestra conexión con la comunidad española.

Este evento, por tanto, servirá para incorporar la participación de nuevos usuarios en la Red ERIC CLARIN y ampliar la comunidad española en la infraestructura CLARIN. La escuela está cofinanciada por el proyecto ERC POSTDATA y también está vinculado al proyecto Retele (Red de Tecnologías Lingüísticas en Español), que tiene como objetivo reunir y compartir iniciativas, herramientas y proyectos de tecnología lingüística para hispanohablantes.                                                             ¡Entra en la página del curso: http://linhd.uned.es/p/dh-summer-2017-es/ y no dudes en preguntarnos!

Patrocinadores del evento

Últimos días de matrícula para nuestros Títulos Propios  de Humanidades Digitales 

Desde el Laboratorio de Innovación en Humanidades Digitales de la UNED anunciamos que el plazo de matrícula para nuestros Títulos Propios a distancia de Humanidades Digitales termina el próximo día 5 de diciembre.

Quedan pocos días y pocas plazas, por lo que les animamos a registrarse a la mayor brevedad posible. Los cursos comenzarán en enero de 2017. Todos ellos se cursarán íntegramente a distancia, online y en español (aunque están abiertos a estudiantes no hispanohablantes).

Este año ofrecemos los siguientes programas:

HD_hombre_250

Experto Profesional en Humanidades Digitales (3ª edición) 30 créditos, enero-septiembre de 2017

Edicion-Digital_LINHD_250

Experto Profesional en Edición Digital Académica (2ª edición) 30 créditos, enero-septiembre de 2017

estilometria-cervantes_250

Análisis de Textos y Estilometría con R (¡nuevo!) 6 créditos, enero-mayo de 2017

 

Nuestros cursos están guiados de manera personalizada en los que los alumnos trabajan con diferentes modalidades (material textual, gráfico, videos) y en los que, a través de la plataforma del curso pueden ir trabajando con los profesores y dialogando con ellos y sus pares.

Disponemos de descuentos especiales y ayudas al estudio que pueden consultar en las respectivas páginas de los cursos. Quedamos a su disposición para cualquier duda o consulta.

¡Nuestra misión es formar a profesionales con futuro y os esperamos para uniros al reto de conocer las Humanidades Digitales!

Estilometría: un ámbito por descubrir

¿Co-autores de Shakespeare?
Imagen tomada de Wikipedia

Hace unas semanas la prensa, tanto escrita (El Mundo, El cultural, The Guardian, BBC, Efe) como  hablada (RNE Radio 5), se hizo eco de que en la editorial de Universidad de Oxford, en realidad un equipo de investigadores cuyos resultados serán publicados (en 2017) por dicha editorial, han establecido que la trilogía Enrique VI no fue escrita en su totalidad por William Shakespeare (1564-1616), sino que es una obra escrita en colaboración con Christopher Marlowe (1564-1593). La mayoría de las noticias se centraban en los personajes y la historia entorno a ellos y la gran disputa que ha habido desde el siglo XVIII de que era posible que William Shakespeare no hubiera escrito todo lo que se le atribuye. La gran mayoría de esas noticias mencionaban que se había llegado a esa conclusión gracias a la mezcla de dos técnicas de investigación: «old-fashioned scholarship and 21st-century computerised tools to analyse texts». Pero ninguna de las noticias le interesó explicar en qué consistían esas herramientas computacionales; todo lo más, en Radio 5 se dice que se han ayudado de un programa informático que ha localizado «multitud de palabras o expresiones marca de la casa de Marlowe». Eso no es decir mucho, pues ha habido varios investigadores, en el campo de la filología española sin ir más lejos, que ha usado algunos programas informáticos para localizar formas y expresiones para determinar la autoría del llamado Quijote de Avellaneda. En esos trabajos con apoyo informático lo único que se hizo fue buscar una serie de palabras «marca de la casa» del sospechoso en el corpus diacrónico del español, CORDE, que es lo mismo que se hizo, pero sin apoyo informático, en el caso de La tía fingida, es decir, aplicaron la «old-fashioned scholarship», o lo que es lo mismo, algunos de los métodos filológicos normales y largamente probados.

Una de las técnicas modernas, del siglo XXI, más eficientes para tratar de desentrañar la autoría de un texto es la estilometría, es decir, el análisis estadístico del estilo literario (Holmes 1998, 111), pero no ha podido tener gran desarrollo hasta que los ordenadores han tomado un lugar preponderante en todo tipo de estudios, incluso en los «de letras», y no como potentes máquinas de escribir, que es como mucho conciben los ordenadores.

La primera aproximación al problema fue la de T. Mendenhall en 1901 y de la que dio cuenta en «A Mechanical solution of a literary problem». La solución mecánica consistió en contar las letras de cada una de las palabras de las obras de Shakespeare y comparar la longitud de las palabras de las obras atribuidas a Shakespeare con los sospechosos habituales: Edward de Vere (1550-1604), Francis Bacon (1561-1626) y Marlowe.

El procedimiento era muy sencillo: una persona leía una palabra, contaba el número de letras y lo anunciaba en voz alta; otra apretaba el botón adecuado (uno para cada número) en una máquina registradora construida al efecto. Procedieron así a lo largo de dos millones de palabras (400 000 eran de Shakespeare). La conclusión a la que llegaron era que la longitud de palabra más usual en Shakespeare era de cuatro letras, «a thing never met with before» (Mendenhall, 1901: 102).

Este laborioso procedimiento debió de influir para que nadie se ocupara de los problemas de estimoletría, aunque hubo algunos intentos como el de Claude S. Brineger en 1963, que trató de establecer si Mark Twain había escrito o no las diez cartas Snodgrass que se publicaron en el New Orleans Daily Crescent en 1861 bajo la firma de Quintus Curtius Snodgrass.

Pero el gran avance para los estudios de estilometría surgieron a raíz del llamado caso de los Federalist Papers en 1964 a cargo de F. Mostaller y D. L. Wallace. Estos especialistas en estadística pudieron establecer la autoría de los doce Federalist Papers cuya autoría estaba en discusión. Para ello se basaron en la frecuencia de uso de palabras gramaticales, function words, es decir de artículos, conjunciones, preposiciones, pronombres y ciertos adverbios, adjetivos y verbos auxiliares, como discriminadores de estilo, pues dejan una huella indeleble e inconsciente del estilo de cada uno de nosotros y que es inimitable.

Más reciente ha sido el llamado caso Galbraith. Robert Galbraith, un policía militar jubilado y con experiencia en la industria de seguridad, publicó en abril de 2013 la novela policiaca titulada The Cuckoo’s Calling (La llamada del Cuco). Esta novela «was lavishly praised by critics» (Sunday Times, 14.7.13). Pero, según contaba Sunday Times, a uno de sus periodistas le pareció una novela demasiado buena como para ser una obra primeriza y que un autor con la formación que decía tener describiese con sumo detalle la ropa femenina, por lo que decidió solicitar los servicios de Patrick Juola, un profesor de Duquesne University que en el año 2006 presentó un prototipo computerizado de atribución de autoría llamado Java Graphical Authorship Attribution Program (JGAAP), para que averiguara quién podía ser el autor real. La verdad es que tenían un soplo: que Robert Galbraith era un seudónimo de J. K. Rowlins, por lo que pudo partir de una hipótesis que se trató de confirmar.

El procedimiento de Juola fue seleccionar la única novela para adultos escrita por J. K. Rowling, The Casual Vacancy, y otras tres novelas policiacas escritas por mujeres: The St. Zita Society de Ruth Rendell, The Private Patient de P. D. JamesThe Wire in the Blood de Val McDermid, para ver cuál era más similar a Galbraith y realizó cuatro análisis centrados en cuatro variables lingüísticas:

  1. distribución de la longitud de las palabras
  2. uso de las 100 palabras más comunes
  3. distribución de 4-gram (grupos de cuatro letras juntas, pueden ser palabras, parte de una palabra o de dos palabras adyacentes)
  4. distribución de bigramas (qué dos palabras aparecen juntas)

La conclusión a la que llegó es que de los cuatro autores, dos quedaban descartados y que «The only person consistently suggested by every analysis was Rowling, who showed up as the winner or the runner-up in each instance» (Juola). Ante estos datos, el periodista del Sunday Times preguntó a J. K. Rowling y esta confesó que era ella la autora.

En un libro pensado para enseñar el uso de R, un lenguaje de programación estadística, a los estudiantes (y estudiosos) de la literatura, Text Analysis with R for Students of Literature de  M. L. Jockers (2014), me llamó poderosamente la atención el capítulo 11, titulado «Clustering». En él se propone como ejercicio determinar si un texto marcado como anónimo se agruparía de manera natural con algún autor de un grupo de textos firmados por una serie de novelistas irlandeses (o de origen irlandés) de los siglos XVIII-XX. A la vista de que funcionaba con los textos ingleses, pero consciente de los problemas que presentan los programas informáticos creados para trabajar con textos en lengua inglesa (y el de las letras con diacríticos –á, é, í, ó, ú, ü, ñ– es uno de los básicos), quise ver si funcionaba con textos escritos en español. Para ello preparé un pequeño corpus de dieciocho novelas escritas en español durante el siglo XIX o principios del XX (Eduardo Acevedo Díaz [3 textos], Benito Pérez Galdós [8 textos], Juan Valera [3 textos] y José María de Pereda [4 textos]), pero uno de los ficheros se etiquetó como anónimo. Este corpus está constituido por 1 361 448 palabras token y 244 690 palabras tipo y tan solo seleccionando 24 palabras tipo –a, al, como, con, de, del, el, en, la, las, le, lo, los, más, me, no, para, por, que, se, su, un, una e y–, aquellas cuya frecuencia relativa de aparición fuera >= .5, el análisis de agrupación por medio de la medida de la distancia euclidiana los reunió sin error alguno, como puede verse en el dendrograma correspondiente (fig. 1) y situó el texto marcado como anónimo entre las obras de Pérez Galdós, como efectivamente era, pues se trataba del Episodio Nacional Trafalgar.

 

Dendrograma de unas novelas española del XIX-XX

Dendrograma de unas novelas española del XIX-XX

Este pequeño experimento me convenció de que los análisis estilométricos computacionales son una herramienta útil para los estudios de filología, y que los «de letras» debemos hacer el pequeño esfuerzo de aprender a programar. No es necesario dominar las matemáticas que subyacen en estos análisis; hay montañas de frikis (desde nuestro punto de vista de filólogos, ellos dirán que los frikis somos nosotros) que crean paquetes y rutinas en varios lenguajes de programación (los mejores para nuestro trabajo los he encontrado escritos en R y Python) que realizan esos oscuros y complicados cálculos para que nosotros solo nos preocupemos de preparar los materiales, lo más tedioso, pues carecemos de buenas fuentes de textos electrónicos que podamos usar libremente, y que con un poco de habilidad (y enorme paciencia al principio) podamos escribir programitas en los que utilicemos los paquetes creados por los expertos en informática para analizar ciertos problemas de autoría y analizar e interpretar los resultados.

Uno de los problemas de autoría más intrigantes de la literatura española, y que posiblemente nunca tenga solución, es quién fue el autor del Lazarillo de Tormes. Recientemente, la catedrática de la Universidad de Barcelona, Rosa Navarro ha publicado una nueva edición del Lazarillo (Alianza Editorial, 2016) y en su portada consta como autor Alfonso de Valdés (1490-1532). Sin embargo, analizados informáticamente los textos de Alfonso de Valdés y los de otros sospechosos, o algunos posibles autores, como Juan de Valdés (1509-1541), Juan Arce de Otálora (1515/20-1562), Fray Luis de León (1525/28-1591), Diego Hurtado de Mendoza (1503/04-1575) y Francisco Cervantes de Salazar (1513/18-1575), con el mismo programita que utilizamos para averiguar si el fichero marcado como anónimo se asentaba entre las obras de su verdadero autor, hemos podido comprobar que ni de lejos pudo ser Alfonso de Valdés el autor del Lazarillo.

Dendrograma de posibles candidatos a la autoría de Lazarillo

Dendrograma de posibles candidatos a la autoría de Lazarillo

La estilometría, es decir, el estudio o análisis estadístico del estilo de un autor para tratar de establecer la posible autoría de un texto, se ha mostrado válida cuando se han hecho experimentos en los que todos los textos están perfectamente identificados (Fradejas Rueda, «El análisis estilométrico aplicado a la literatura española: las novelas policiacas e históricas»), por lo tanto se pueden usar con confianza en los textos más antiguos. Sin embargo, hay que tener en cuenta que si fallan, es decir, no lograr dar con el autor real, lo más probable es que se deba a que no se le han ofrecido a la máquina los términos de comparación válidos, es decir, textos del auténtico autor. Por otra parte, esos fallos también pueden ser aciertos en el sentido de que pueden servir para desestimar candidatos, como acabamos de hacer con Alfonso de Valdés.

 


José Manuel Fradejas Rueda (@JMFradeRue) es catedrático de Filología Románica en la Universidad de Valladolid donde enseña Lingüística románica y Tecnologías de la información aplicadas a la investigación en lengua española y en la actualidad es el IP del proyecto 7PartidasDigital financiado por el MINECO (FFI2016-75014-P).