Archivo de categorías: Tecnologías del Lenguaje

Entradas sobre tecnologías del lenguaje.

Migrando desde Textalytics: API de Corrección y Análisis Lingüístico

Recientemente hemos publicado y actualizado en MeaningCloud dos de las funcionalidades que faltaban por migrar desde Textalytics:

  • Correción automática de textos que permite revisar la ortografía, gramática y estilo de tus textos en varios idiomas: Español, Inglés, Francés e Italiano.
  • Análisis língüístico detallado incluyendo lematización, análisis morfológico y sintáctico también para múltiples idiomas. En este caso además de Español, Inglés, Francés e Italiano también está disponible para Portugués y Catalán.

Todos los usuarios de Textalytics tienen acceso a MeaningCloud usando el mismo correo y clave que ya tenían. Si no recuerdas tu contraseña, puedes renovarla en este enlace.

Desarrolladores que usan las API de Textalytics de Corrección Automática o de Lematización y Análisis Morfológico y Sintáctico

Si eres usuario de las anteriores funcionalidades y deseas migrar a MeaningCloud, puedes hacerlo ya. Puedes seguir los siguientes pasos:

  1. Actualiza el punto de acceso en tus peticiones para usar MeaningCloud, tanto el formato de la petición como el de la respuesta no cambian. Recuerda que puedes usar tanto HTTP como HTTPS.
    API Textalytics MeaningCloud
    Spell, Grammar and Style Proofreading
    https://textalytics.com/core/stilus-1.2
    http://api.meaningcloud.com/stilus-1.2
    Lemmatization, POS and Parsing API
    http://textalytics.com/core/parser-1.2
    http://api.meaningcloud.com/parser-1.2
  2. Comprueba tu clave de licencia en MeaningCloud y asegúrate de que usas la licencia correcta (y única) como valor del parámetro ‘license key’ en todas las llamadas. Puedes cortar y pegar tu licencia desde la sección Licenses en los detalles de tu cuenta o desde la página de inicio para desarrolladores.

Como siempre, si tienes dudas o problemas no dudes en escribirnos a support@meaningcloud.com. En cualquier caso y para garantizar la transición sin problemas de las aplicaciones que las usan, todos los puntos de acceso de las APIs de Textalytics permaneceran operativos hasta el 1 de junio de 2015.


El mercado de analítica de texto en 2015: Seth Grimes entrevista al CEO de MeaningCloud

Seth GrimesSeth Grimes es uno de los analistas de referencia en el sector de analítica de texto. Como parte de su informe anual de revisión y perspectivas sobre la evolución de esta tecnología y su mercado, Seth entrevistó a un grupo de directivos del sector para conocer sus impresiones sobre el estado de esta industria y sus previsiones para el año entrante.

José Carlos González, CEO de Daedalus / MeaningCloud, fue uno de los directivos seleccionados. En la entrevista, Seth y José Carlos conversan sobre perspectivas del sector, avances tecnológicos y el dilema “amplitud frente a profundidad” al que se enfrentan muchos proveedores de analítica de texto.

Éste es un fragmento de la entrevista:

Caminos para la comercialización de la analítica de texto: Q&A con José Carlos González, Daedalus

¿Qué deberíamos esperar de su empresa y del sector en 2015?

Analítica de la Voz del Cliente (VoC) -y en general, todo el movimiento alrededor de la experiencia del cliente- continuará siendo el motor más importante para el mercado de la analítica de texto.

El reto para los próximos años estará en proporcionar a nuestros clientes insights de alto valor y “accionables”. Estos insights deberían integrarse con Sistemas CRM para ser tratados junto a la información estructurada, y así explotar completamente el valor de los datos acerca de los clientes de los que disponen las empresas. La preocupación sobre la privacidad y la dificultad para conectar las identidades sociales con las personas y empresas reales seguirán constituyendo una barrera para alcanzar resultados más explotables.

———

¿Te interesa? Lee el resto de la entrevista, que repasa los desarrollos en el mercado y nuestras estrategias de empresa y producto, en el blog de Seth Grimes.


Mejorando la gestión de emergencias analizando contenidos en redes sociales

¿Servir a los ciudadanos sin escuchar los medios sociales?App Llamada Emergencias

Los canales tradicionales de acceso a los servicios de emergencias por parte de los ciudadanos (típicamente a través de los teléfonos 112) deben ser expandidos con el análisis de medios sociales en tiempo real (canales web 2.0). Esta observación es el punto de partida de una de las líneas en las que el Grupo Telefónica (uno de los proveedores de referencia mundiales en sistemas integrados de gestión de emergencias) ha venido trabajando con vistas a su integración en su plataforma SENECA.

 

Cuadro de mando social para gestión de emergencias

Desde Daedalus (ahora MeaningCloud), hemos trabajado para Telefónica en el desarrollo de un cuadro de mando social que analiza y organiza la información compartida en redes sociales (inicialmente Twitter) antes, durante y después de que se produzca un incidente de interés para los servicios de atención a emergencias. Desde el punto de vista funcional, esto conlleva:

  • Recoger las interacciones (tuits) relativos a incidencias en un área geográfica determinada
  • Clasificarlas según el tipo de incidencia (concentraciones, accidentes, desastres naturales…)
  • Identificar la fase en el ciclo de vida de la incidencia (alerta o pre-incidencia, incidencia o post-incidencia)

 

Beneficios para las organizaciones que gestionan emergencias

Anticipar incidentes

Love Parade Duisburg

Anticipación a eventos que, por imprevisibles o por desconocerse su magnitud a priori, deban ser objeto de atención futura por los servicios de atención a emergencias. Dentro de este escenario se encuentran los eventos sobre concentración de personas que son convocados, difundidos o simplemente comentados a través de redes sociales (asistencia a eventos festivos o deportivos, manifestaciones, etc.) Predecir las dimensiones y alcance de estos eventos es fundamental para planificar la atención por parte de las diferentes autoridades. Recordemos en este sentido el caso de los disturbios a raíz de una fiesta de cumpleaños convocada en la localidad holandesa de Haren a través de la red Facebook en 2012 o la tragedia de la Love Parade de Duisburg.

Continuar leyendo


El papel de la Minería de Texto en el Sector de Seguros

¿Qué pueden hacer las aseguradoras para explotar toda su información no estructurada?

Un escenario típico de big data

Las compañías de seguros recogen ingentes volúmenes de texto diariamente, a través de múltiples canales (sus agentes, centros de atención a clientes, correo electrónico, redes sociales, web en general). Las informaciones recogidas incluyen pólizas, informes periciales y de salud, reclamaciones y quejas, resultados de encuestas, interacciones relevantes de clientes y no-clientes en redes sociales, etc. Es imposible atender, clasificar, interpretar o extraer la información esencial de todo ese material.

El Sector de Seguros es uno de los que más puede beneficiarse de la aplicación de las tecnologías para análisis inteligente de texto en formato libre (conocido como Analítica de Textos, Minería de Textos o Procesamiento de Lenguaje Natural).

Para las aseguradoras, se añade el reto de combinar el resultado del análisis de esos contenidos textuales con datos estructurados (almacenados en bases de datos convencionales) para mejorar la toma de decisiones. En este sentido, los analistas del sector consideran decisivo el uso de múltiples tecnologías basadas en Inteligencia Artificial (sistemas inteligentes), aprendizaje automático (minería de datos) y procesamiento de lenguaje natural, (tanto estadístico como simbólico o semántico).

Áreas más prometedoras de la analítica de textos en el Sector de Seguros

Detección de fraude

Detección de Fraude
Según Accenture, en un informe publicado en 2013, se estima que las compañías aseguradoras pierden en Europa entre 8.000 y 12.000 millones de euros al año debido a reclamaciones fraudulentas, con una tendencia creciente. Asimismo, el sector estima que entre un 5% y un 10% de las indemnizaciones abonadas por las compañías en el año anterior eran por motivos fraudulentos, no pudiendo ser detectados debido a la falta de herramientas analíticas predictivas.

Según el medio especializado “Health Data Management”, el sistema de prevención de fraude de Medicare en EE.UU., basado en algoritmos predictivos que analizan patrones en la facturación de proveedores, ahorró más de 200 millones de dólares en pagos rechazados en 2013.

Continuar leyendo


Análisis de audiencias y opinión sobre eventos en la TV Social

A finales de junio participamos en la conferencia internacional TVX 2014 sobre experiencias interactivas para televisión y vídeo online con una demo titulada “Numbat – Tracking Buzz and Sentiment for Second Screens“. En ella mostramos nuestro trabajo y experiencia en análisis de medios sociales aplicado a televisión y eventos en directo, combinando tecnologías de análisis semántico y procesamiento de datos en tiempo real para obtener métricas sobre la audiencia y su opinión acerca de cada uno de los aspectos de un programa o evento en vivo.

La televisión social es un fenómeno no sólo en continuo crecimiento, sino plenamente asentado en el panorama internacional, con multitud de empresas especialmente interesadas en la interacción con el usuario y el marketing social. Las redes sociales están haciendo especial hincapié en esta interacción entre el usuario y la programación televisiva. Para hacernos una idea de la magnitud que alcanza la conversación social se puede echar un vistazo a los datos que genera un evento internacional como el Mundial FIFA 2014 en Twitter.

cristianoDurante el congreso pudimos ver los caminos que va tomando tanto la industria como el campo de la investigación para aportar su visión sobre la TV social e interactiva. Un ejemplo es el de las aplicaciones de segunda pantalla, que permiten al espectador una mayor profundización en el contenido que consume, ya sea mediante información relacionada con la emisión (normalmente introducida ad hoc y sincronizada en tiempo para una mejor experiencia) o a través del descubrimiento automático de tendencias. Otras aproximaciones pasan por la recomendación personalizada de programas, estudiando los hábitos y comportamientos del espectador frente a la televisión.

Para nuestra demostración, elegimos visualizar dos partidos del Mundial 2014 que se jugaban al mismo tiempo: Estados Unidos – Alemania y Portugal – Ghana.

Continuar leyendo


Análisis de la Experiencia del Cliente, la evolución del mercado de las Tecnologías del Lenguaje

Acaba de celebrarse en Bruselas la conferencia LT-Innovate 2014. LT-Innovate es un foro y una asociación de empresas europeas del sector de las tecnologías de la lengua. Para hacerse una idea del significado y de la importancia de este mercado, baste decir que en Europa cuenta con unas 450 empresas (en su mayoría PYMEs innovadoras), responsables del 0,12% del PIB europeo. Daedalus es una de las quince empresas europeas (y única española) formalmente miembros de LT-Innovate Ltd. desde su constitución como sociedad, con sede en Reino Unido, en 2012.

LTI_Manifesto_201406

LT-Innovate Innovation Manifesto 2014

En esta edición de 2014, se ha hecho público el documento “LT-Innnovate Innovation Manifesto: Desvelando la promesa de las industrias de la tecnología del lenguaje para el mercado único digital europeo”. Tuve el honor de formar parte de la mesa redonda que servía de apertura a la conferencia. El principal argumento de mi intervención era el cambio cualitativo experimentado en los últimos tiempos en el papel de nuestras tecnologías en los mercados en los que nos movemos. Durante años hemos estado incorporando nuestros sistemas para resolver problemas específicos acotados a áreas muy limitadas en nuestros clientes, más o menos visionarios o innovadores. Esta situación ha cambiado ya por completo: las tecnologías del lenguaje desempeñan ahora un papel central en un creciente número de negocios.

Las Tecnologías del Lenguaje en el Sector de los Medios

En un post reciente, me refería a esto mismo con respecto al sector de los medios de comunicación. Donde antes incorporábamos una solución para automatizar la anotación de contenidos del archivo, ahora desplegamos soluciones que afectan a la mayor parte de los aspectos del negocio editorial: etiquetamos semánticamente noticias para mejorar la experiencia de búsqueda en cualquier canal (web, móviles, tabletas), para recomendar contenidos relacionados o amedida del perfil de intereses de un lector concreto, para facilitar la encontrabilidad y la indexación por buscadores (SEO, Search Engine Optimization), para colocar publicidad en función del contexto noticioso o de la intención de los lectores, para ayudar a monetizar los contenidos de formas nuevas, etc.

Continuar leyendo


Publicación Semántica: caso de estudio para los Medios

Publicación semántica en Unidad Editorial: caso de estudio de un cliente en el sector de los medios de comunicación 

El pasado año, el grupo de medios español Unidad Editorial desarrolló y desplegó una nueva plataforma de gestión de contenidos para su redacción integrada. Unidad Editorial es una compañía del grupo italiano RCS MediaGroup y publica algunos de los periódicos y revistas con mayor circulación de España, además de contar con una cadena de emisoras de radio y una licencia de televisión digital terrestre con cuatro canales.

Newsroom El Mundo

Newsroom El Mundo

Cuando un periodista escribe una pieza (noticia, columna, reseña) y la incorpora al gestor de contenidos, hay que etiquetarla semánticamente como uno de los primeros pasos dentro de un flujo de trabajo que terminará con su despliegue en diferentes formatos, a través de diversos canales (papel, web, tabletas y aplicaciones móviles) y en diferentes cabeceras. Tras un proceso de evaluación de proveedores en los meses anteriores, la compañía seleccionó la tecnología de analítica de texto de Daedalus para el procesamiento semántico de las noticias. La publicación semántica incluía, en este caso, la identificación (con desambiguación) de entidades nombradas en la noticia (personalidades, lugares, organizaciones, etc.), expresiones temporales y monetarias, conceptos y palabras o expresiones clave, clasificación del texto conforme al esquema IPTC (estándar internacional para la clasificación de noticias en más de 1400 clases organizadas en tres niveles), análisis de sentimiento, etc.

Continuar leyendo


Nueva API de Publicación Semántica en MeaningCloud

Esta API permite producir y publicar contenidos más valiosos, más rápidamente y con menor coste

ACTUALIZACIÓN: esta API ha sido discontinuada. En su lugar usa nuestra Solución para Publicación Semántica, que incorpora APIs como Extracción de Topics, Clasificación de Textos o Resúmenes Automáticos.

En MeaningCloud seguimos desarrollando nuestro roadmap y ofreciendo nuevas API verticales, optimizadas para diversos sectores y aplicaciones. Es un placer anunciar que ya está disponible nuestra API de Publicación Semántica, especialmente dirigida a medios de comunicación, editoriales y proveedores de contenidos en general.

Es un paso natural ya que en S|ngular Meaning (nuestra empresa matriz, antes llamada “Daedalus”) llevamos años colaborando con las compañías más significativas de estos sectores (PRISA, Unidad Editorial, Vocento, RTVE, lainformacion.com…) y éste es uno de los mercados donde más demanda estamos detectando y más tracción están consiguiendo nuestras soluciones.

La API de Publicación Semántica incorpora el know-how que hemos desarrollado colaborando con estas grandes empresas y lo empaqueta en forma de recursos semánticos, pipelines de proceso y configuraciones específicas para los escenarios y aplicaciones más habituales de este sector: gestión de archivo, generación de contenidos, personalización de productos informativos, etc.

Continuar leyendo


Patrocinio: Sentiment Analysis Symposium

Los próximos 5 y 6 de marzo tendrá lugar en Nueva York una nueva edición del Sentiment Analysis Symposium. Este es el séptimo evento de una serie organizada por el experto en el sector Seth Grimes desde el año 2010 en San Francisco y Nueva York.

Se trata de una conferencia única en varios aspectos. En primer lugar, está diseñada específicamente para atender a la comunidad de profesionales interesados en el campo de Human Analytics y sus aplicaciones de negocio. En segundo, su audiencia está integrada por una mezcla de expertos, estrategas, profesionales, investigadores y proveedores de soluciones, lo que lo convierte en un terreno perfectamente abonado para la discusión y el intercambio de puntos de vista. Y en tercer lugar, está diseñado por una sola persona (no por un comité), lo que le da una garantía de consistencia. Como experto en el negocio de la consultoría, Seth Grimes consigue el equilibrio perfecto en unas presentaciones que abarcan desde la tecnología a las aplicaciones de negocio. Asistí a la edición del evento de 2012 en Nueva York, donde impartí una breve ponencia, y puedo afirmar que la experiencia fue realmente enriquecedora.

Sentiment Analysis Symposium 2014

Pero que el título no nos confunda: no interpretemos “Análisis de Sentimiento” en un sentido restrictivo. La conferencia versa sobre cómo descubrir el valor de negocio en las opiniones, emociones y actitudes presentes en medios sociales, noticias y feedback empresarial. Además, el alcance no se limita a fuentes de texto: la voz y la imagen son también términos de la ecuación.

Continuar leyendo


TV Social con Análisis Semántico y Big Data

Recientemente hemos participado en la conferencia Big Data Spain con una charla titulada “Real time semantic search engine for social TV streams”. En esta charla resumimos nuestra experiencia en el área de Analítica de Medios Sociales, donde estamos combinando tecnologías de análisis semántico y de procesamiento de flujos de datos (streams) en tiempo real para entender las redes sociales y en concreto la TV Social

La TV Social es un fenómeno en claro crecimiento ya que cada vez es más frecuente el uso de redes sociales mientras vemos la televisión. Por ejemplo, Twitter ya reportaba el año pasado que en Reino Unido más de un tercio de todos los comentarios durante el primetime eran sobre lo que pasaba en la pantalla del televisor. Hace semanas, Facebook reivindicaba su lugar en la TV social afirmando que el volumen de comentarios privados sobre TV en su plataforma era 5 veces mayor. Esta red social ha empezado también a ofrecer hashtags e incluso una nueva API, Keywords Insight, para que algunos socios tengan acceso a estadísticas agregadas de las conversaciones dentro de los muros de Facebook.

A medida que el número de usuarios que acaban comentando su programa favorito de TV en las redes sociales con amigos o extraños, las cadenas han empezado a hacer uso de estas herramientas para participar en la conversación. Durante el último año se ha incrementado el número de programas que hacen uso de hashtags oficiales, a veces incluso varios durante una sola emisión. Más allá de la búsqueda del trending topic, los que con mayor éxito han experimentado fomentan incluso la participación de presentadores o actores durante la emisión del programa. En España, “Salvados” o “Pesadilla en la Cocina” son ejemplo de lo primero y la serie “Isabel” para el caso de los actores.   

Aunque no hay nada nuevo en el hecho de socializar alrededor del contenido de la tele, la posibilidad de medir y de destilar estos comentarios sí que es característico del nuevo contexto. Además, esta conversación no se produce al día siguiente sino que su impacto es inmediato. Todo esto se suma para abrir un nuevo abanico de posibilidades para espectadores, radiodifusores y las grandes marcas. Los usuarios han encendido la mecha de la TV Social ya que les conecta con amigos y el resto de la audiencia.  Es a la vez una forma de sentirse parte del programa y al mismo tiempo de involucrarse más. Por tanto, las herramientas que faciliten organizar y comprender la conversación son de especial interés para el espectador social. Para el resto de espectadores, incluso para aquellos que solo participan leyendo, es una forma de generar tanto recomendaciones sociales. Otro uso interesante es que analizar la conversación social permite contextualizar contenido relevante y relacionado con el programa como información sobre los actores, personajes o cualquier otro concepto del que se hable en la pantalla grande.

Continuar leyendo