Análisis de la Experiencia del Cliente, la evolución del mercado de las Tecnologías del Lenguaje

Acaba de celebrarse en Bruselas la conferencia LT-Innovate 2014. LT-Innovate es un foro y una asociación de empresas europeas del sector de las tecnologías de la lengua. Para hacerse una idea del significado y de la importancia de este mercado, baste decir que en Europa cuenta con unas 450 empresas (en su mayoría PYMEs innovadoras), responsables del 0,12% del PIB europeo. Daedalus es una de las quince empresas europeas (y única española) formalmente miembros de LT-Innovate Ltd. desde su constitución como sociedad, con sede en Reino Unido, en 2012.

LTI_Manifesto_201406

LT-Innovate Innovation Manifesto 2014

En esta edición de 2014, se ha hecho público el documento “LT-Innnovate Innovation Manifesto: Desvelando la promesa de las industrias de la tecnología del lenguaje para el mercado único digital europeo”. Tuve el honor de formar parte de la mesa redonda que servía de apertura a la conferencia. El principal argumento de mi intervención era el cambio cualitativo experimentado en los últimos tiempos en el papel de nuestras tecnologías en los mercados en los que nos movemos. Durante años hemos estado incorporando nuestros sistemas para resolver problemas específicos acotados a áreas muy limitadas en nuestros clientes, más o menos visionarios o innovadores. Esta situación ha cambiado ya por completo: las tecnologías del lenguaje desempeñan ahora un papel central en un creciente número de negocios.

Las Tecnologías del Lenguaje en el Sector de los Medios

En un post reciente, me refería a esto mismo con respecto al sector de los medios de comunicación. Donde antes incorporábamos una solución para automatizar la anotación de contenidos del archivo, ahora desplegamos soluciones que afectan a la mayor parte de los aspectos del negocio editorial: etiquetamos semánticamente noticias para mejorar la experiencia de búsqueda en cualquier canal (web, móviles, tabletas), para recomendar contenidos relacionados o amedida del perfil de intereses de un lector concreto, para facilitar la encontrabilidad y la indexación por buscadores (SEO, Search Engine Optimization), para colocar publicidad en función del contexto noticioso o de la intención de los lectores, para ayudar a monetizar los contenidos de formas nuevas, etc.

Continuar leyendo


Analizando la Voz del Cliente (VoC) en el Sentiment Analysis Symposium

Hace unos días estuvimos presentando en el Sentiment Analysis Symposium de Nueva York. En nuestra ponencia explicamos cómo utilizar las tecnologías de análisis de texto para escuchar la Voz del Cliente (VoC) y obtener customer insights.

Textalytics at Sentiment Analysis Symposium 2014

Para las empresas es vital entender las opiniones que sus clientes -actuales y potenciales- expresan en unos nuevos canales mucho más espontáneos y menos estructurados que las tradicionales encuestas (p.ej., respuestas abiertas en cuestionarios, interacciones en el contact center, conversaciones en medios sociales). El alcance, la inmediatez y el carácter más “emocional” de estos canales los convierte en una impresionante fuente de materia prima para obtener valiosos insights.

Continuar leyendo


Publicación Semántica: caso de estudio para los Medios

Publicación semántica en Unidad Editorial: caso de estudio de un cliente en el sector de los medios de comunicación 

El pasado año, el grupo de medios español Unidad Editorial desarrolló y desplegó una nueva plataforma de gestión de contenidos para su redacción integrada. Unidad Editorial es una compañía del grupo italiano RCS MediaGroup y publica algunos de los periódicos y revistas con mayor circulación de España, además de contar con una cadena de emisoras de radio y una licencia de televisión digital terrestre con cuatro canales.

Newsroom El Mundo

Newsroom El Mundo

Cuando un periodista escribe una pieza (noticia, columna, reseña) y la incorpora al gestor de contenidos, hay que etiquetarla semánticamente como uno de los primeros pasos dentro de un flujo de trabajo que terminará con su despliegue en diferentes formatos, a través de diversos canales (papel, web, tabletas y aplicaciones móviles) y en diferentes cabeceras. Tras un proceso de evaluación de proveedores en los meses anteriores, la compañía seleccionó la tecnología de analítica de texto de Daedalus para el procesamiento semántico de las noticias. La publicación semántica incluía, en este caso, la identificación (con desambiguación) de entidades nombradas en la noticia (personalidades, lugares, organizaciones, etc.), expresiones temporales y monetarias, conceptos y palabras o expresiones clave, clasificación del texto conforme al esquema IPTC (estándar internacional para la clasificación de noticias en más de 1400 clases organizadas en tres niveles), análisis de sentimiento, etc.

Continuar leyendo


Nueva API de Publicación Semántica en MeaningCloud

Esta API permite producir y publicar contenidos más valiosos, más rápidamente y con menor coste

ACTUALIZACIÓN: esta API ha sido discontinuada. En su lugar usa nuestra Solución para Publicación Semántica, que incorpora APIs como Extracción de Topics, Clasificación de Textos o Resúmenes Automáticos.

En MeaningCloud seguimos desarrollando nuestro roadmap y ofreciendo nuevas API verticales, optimizadas para diversos sectores y aplicaciones. Es un placer anunciar que ya está disponible nuestra API de Publicación Semántica, especialmente dirigida a medios de comunicación, editoriales y proveedores de contenidos en general.

Es un paso natural ya que en S|ngular Meaning (nuestra empresa matriz, antes llamada “Daedalus”) llevamos años colaborando con las compañías más significativas de estos sectores (PRISA, Unidad Editorial, Vocento, RTVE, lainformacion.com…) y éste es uno de los mercados donde más demanda estamos detectando y más tracción están consiguiendo nuestras soluciones.

La API de Publicación Semántica incorpora el know-how que hemos desarrollado colaborando con estas grandes empresas y lo empaqueta en forma de recursos semánticos, pipelines de proceso y configuraciones específicas para los escenarios y aplicaciones más habituales de este sector: gestión de archivo, generación de contenidos, personalización de productos informativos, etc.

Continuar leyendo


Patrocinio: Sentiment Analysis Symposium

Los próximos 5 y 6 de marzo tendrá lugar en Nueva York una nueva edición del Sentiment Analysis Symposium. Este es el séptimo evento de una serie organizada por el experto en el sector Seth Grimes desde el año 2010 en San Francisco y Nueva York.

Se trata de una conferencia única en varios aspectos. En primer lugar, está diseñada específicamente para atender a la comunidad de profesionales interesados en el campo de Human Analytics y sus aplicaciones de negocio. En segundo, su audiencia está integrada por una mezcla de expertos, estrategas, profesionales, investigadores y proveedores de soluciones, lo que lo convierte en un terreno perfectamente abonado para la discusión y el intercambio de puntos de vista. Y en tercer lugar, está diseñado por una sola persona (no por un comité), lo que le da una garantía de consistencia. Como experto en el negocio de la consultoría, Seth Grimes consigue el equilibrio perfecto en unas presentaciones que abarcan desde la tecnología a las aplicaciones de negocio. Asistí a la edición del evento de 2012 en Nueva York, donde impartí una breve ponencia, y puedo afirmar que la experiencia fue realmente enriquecedora.

Sentiment Analysis Symposium 2014

Pero que el título no nos confunda: no interpretemos “Análisis de Sentimiento” en un sentido restrictivo. La conferencia versa sobre cómo descubrir el valor de negocio en las opiniones, emociones y actitudes presentes en medios sociales, noticias y feedback empresarial. Además, el alcance no se limita a fuentes de texto: la voz y la imagen son también términos de la ecuación.

Continuar leyendo


TV Social con Análisis Semántico y Big Data

Recientemente hemos participado en la conferencia Big Data Spain con una charla titulada “Real time semantic search engine for social TV streams”. En esta charla resumimos nuestra experiencia en el área de Analítica de Medios Sociales, donde estamos combinando tecnologías de análisis semántico y de procesamiento de flujos de datos (streams) en tiempo real para entender las redes sociales y en concreto la TV Social

La TV Social es un fenómeno en claro crecimiento ya que cada vez es más frecuente el uso de redes sociales mientras vemos la televisión. Por ejemplo, Twitter ya reportaba el año pasado que en Reino Unido más de un tercio de todos los comentarios durante el primetime eran sobre lo que pasaba en la pantalla del televisor. Hace semanas, Facebook reivindicaba su lugar en la TV social afirmando que el volumen de comentarios privados sobre TV en su plataforma era 5 veces mayor. Esta red social ha empezado también a ofrecer hashtags e incluso una nueva API, Keywords Insight, para que algunos socios tengan acceso a estadísticas agregadas de las conversaciones dentro de los muros de Facebook.

A medida que el número de usuarios que acaban comentando su programa favorito de TV en las redes sociales con amigos o extraños, las cadenas han empezado a hacer uso de estas herramientas para participar en la conversación. Durante el último año se ha incrementado el número de programas que hacen uso de hashtags oficiales, a veces incluso varios durante una sola emisión. Más allá de la búsqueda del trending topic, los que con mayor éxito han experimentado fomentan incluso la participación de presentadores o actores durante la emisión del programa. En España, “Salvados” o “Pesadilla en la Cocina” son ejemplo de lo primero y la serie “Isabel” para el caso de los actores.   

Aunque no hay nada nuevo en el hecho de socializar alrededor del contenido de la tele, la posibilidad de medir y de destilar estos comentarios sí que es característico del nuevo contexto. Además, esta conversación no se produce al día siguiente sino que su impacto es inmediato. Todo esto se suma para abrir un nuevo abanico de posibilidades para espectadores, radiodifusores y las grandes marcas. Los usuarios han encendido la mecha de la TV Social ya que les conecta con amigos y el resto de la audiencia.  Es a la vez una forma de sentirse parte del programa y al mismo tiempo de involucrarse más. Por tanto, las herramientas que faciliten organizar y comprender la conversación son de especial interés para el espectador social. Para el resto de espectadores, incluso para aquellos que solo participan leyendo, es una forma de generar tanto recomendaciones sociales. Otro uso interesante es que analizar la conversación social permite contextualizar contenido relevante y relacionado con el programa como información sobre los actores, personajes o cualquier otro concepto del que se hable en la pantalla grande.

Continuar leyendo


Grabación y Q&A del webinar sobre Textalytics

El pasado 8 de octubre celebramos nuestro webinar sobre Textalytics – la manera más sencilla de incorporar procesamiento semántico a tus aplicaciones.

Meaning as a Service

Durante la sesión tuvimos la suerte de recibir numerosas preguntas. Como referencia, y para dar respuesta a algunas que se quedaron sin contestar por falta de tiempo aquí tenéis un resumen del Q&A:

Jorge: ¿Como se personaliza Textalytics con el vocabulario específico de cada dominio? Me refiero por ejemplo a vocabulario técnico. ¿Es con la funcionalidad que estará lista para octubre?

Con la primera versión de la API de Publicación Semántica estará disponible la posibilidad de definir un diccionario personalizado en el que se pueden añadir entidades y conceptos con información asociada como tipos e identificadores propios. Esto permitirá definir un vocabulario técnico específico como el que deseas.

Sergio: Si tengo mi ontología “propia” ¿la puedo incorporar a Textalytics ?

El diccionario personalizado te va a permitir introducir instancias de tu ontología y asociarles una de tus clases. También vas a poder añadir tus propias clases y establecer relaciones jerárquicas entre ellas.

José: ¿La API es vía servicio web o podemos integrarlo en nuestras aplicaciones Java?

Textalytics ofrece ambas posibilidades: se puede invocar vía servicios web REST o desde Java utilizando nuestro SDK para ese lenguaje. Lo mismo ocurre actualmente con Python y PHP.

Alfonso: ¿Hay planes de lanzar una API para .NET?

Las API de Textalytics son REST estándar y se pueden invocar desde aplicaciones .NET.

Marta: ¿Se diferencia entre subjetividad y objetividad? (¿polar facts?)

En Sentiment Analysis API dentro del conjunto de Core API tienes la posibilidad de acceder a un análisis detallado de la opinión que incluye subjetividad/objetividad además de polaridad y la intensidad del sentimiento expresado (P+,P,NEU,N,N+). La combinación de ambos te permite identificar “polar facts”.

Rafa: ¿Qué valor añadido ofrecen vuestras bases de conocimiento en cuanto a las propiedades de las entidades? Estoy pensando por ejemplo en un caso de uso sencillo en el que después de haber analizado el texto y extraido entidades de tipo Lugar, quiero filtrar mis contenidos por ejemplo por aquellos documentos que hablen de ciudades con más de un cierto número de habitantes.

Nuestras bases de conocimiento propias incluyen principalmente información lingüística y temática (alias, variantes, etc.). Además mantenemos varios rasgos que son importantes para algunas tareas concretas (fictional characters, historic) y otros genéricos como son relaciones de inclusión geográfica. Para los datos más “factuales” como la población de una ciudad nuestros recursos semánticos están conectados con fuentes de Open Linked Data (Geonames, Dbpedia, Freebase, etc ) y Wikipedia. Puedes encontrar información más detallada en la página de Topics Extraction API.

Enrique: ¿De temas multimedia en qué situación estáis?

Disponemos de una API para la transcripción voz-texto y el reconocimiento de locutor  (https://textalytics.com/core/asr-info) que ofrecemos junto a nuestros partners de Vocapia Research. Puedes evaluarla completamente gratis dentro del Plan Gratuito analizando hasta 50 minutos de audio.

Joan: ¿Qué idiomas están soportados?

Español e inglés están soportados para todas las API. En Francés, Italiano, Portugués y Catalán están disponibles muchas de las funcionalidades. Para una lista completa de lenguas: https://www.meaningcloud.com/developer/language-identification/doc/1.1/response

Ricardo: A la hora de captar entidades/contenidos dentro de un texto, ¿se podrán introducir, por ejemplo, listas con tus propios términos, y de ahí conseguir un análisis de los mismos?

Efectivamente, la funcionalidad de diccionario personalizado va a permitir introducir términos específicos para un dominio. Estos términos pasan a ser “de primer nivel” dentro de Textalytics de forma que es posible reconocer variantes morfológicas. Para poner un ejemplo típico, si se define “redes de ordenador” como concepto a la hora de reconocer y agrupar variantes morfológicas como “redes de ordenadores”.

Enrique: ¿Qué pasa si llego al tope de créditos?

Si se supera el límite mensual de créditos gratuitos el contador se pone a cero al principio del siguiente mes. Siempre se pueden contratar paquetes con más créditos. Más info en https://www.meaningcloud.com/es/productos/precios/


Webinar: incorpora procesamiento semántico a tus aplicaciones

Descubre en este Webinar cómo hacer más inteligentes tus contenidos y procesos con nuestras API semánticas

Las empresas están inundadas de contenidos no estructurados y necesitan convertirlos en recursos más explotables y útiles. Las tecnologías semánticas facilitan extraer la máxima señal de todo ese “ruido” de una manera eficaz, rápida y escalable, permitiendo

  • Entender lo que se dice en medios sociales de manera exhaustiva, a bajo coste y en tempo real
  • Enriquecer, relacionar y personalizar dinámicamente toda clase de contenidos multimedia para mejor combinarlos, distribuirlos y monetizarlos
  • Estructurar y extraer el significado de todo tipo de activos de información para una gestión, análisis y explotación más eficientes

Hasta ahora, el procesamiento semántico no estaba a alcance de todos. Por eso en Daedalus hemos lanzado MeaningCloud: una familia de API semánticas en la nube pensada para aquellos desarrolladores / integradores / startups que quieran construir soluciones semánticas de manera eficaz, rápida y barata.

Textalytics

El servicio Meaning-as-a-Service ofrece varias API, cada una con una funcionalidad específica del dominio de aplicación, así como SDK y plug-ins que hacen que su aprendizaje y uso sea mucho más fácil.

Textalytics API alto nivel

En un próximo webinar veremos con ejemplos cómo Textalytics (ahora MeaningCloud) reduce el esfuerzo necesario para obtener resultados y el time-to-market en la aplicación de tecnologías semánticas. Más información y registro aquí.

Webinar – Textalytics: La manera más sencilla de incorporar procesamiento semántico a tus contenidos y procesos

  • Día: martes, 8 de octubre de 2013
  • Hora inicio: 16:00 hora CET (Madrid)
  • Duración: 45 min.

Esperamos contar con tu asistencia.
 
ACTUALIZACIÓN: Para vuestra comodidad hemos subido los contenidos del webinar.


MeaningCloud – Meaning as a Service: oferta semántica en modo SaaS

Hace unas semanas hablábamos por aquí de cómo en s|ngular meaning (antes “Daedalus”)   hemos explorado diversos modelos de negocio basados en API para la comercialización de nuestras tecnologías semánticas. Nuestra percepción era que las funcionalidades lingüísticas básicas son difíciles de usar para muchos desarrolladores -no expertos en estas tecnologías- y que eso les obliga a construir soluciones mediante un proceso de prueba y error tipo “hágaselo usted mismo”, que es lento e ineficiente.

Nuestra visión era ofrecer al mercado unas API con una filosofía más plug-and-play, que proporcionen una funcionalidad más cercana al negocio, una curva de aprendizaje más rápida y -como resultado- una mayor productividad. Esa visión había cristalizado en nuestro productoMeaningCloud y hoy podemos decir que ese producto ya está disponible.

MeaningCloud es la manera más sencilla de “semantizar” tus aplicaciones

MeaningCloud (antes llamado “Textalytics”) una oferta en modo SaaS que ofrece una funcionalidad de procesamiento semántico de alto nivel multilenguaje a aquellos desarrolladores / integradores que quieran desarrollar soluciones semánticas de manera eficaz, rápida y barata. En comparación con otras ofertas semánticas en modo servicio, MeaningCloud ofrece varias API, cada una de ellas con una funcionalidad específica y cercana a un dominio de aplicación, así como SDK, plug-ins… que hacen que el aprendizaje y el uso sea mucho más fácil, reduciendo el tiempo necesario para obtener resultados y el time-to-market.

Textalytics - Meaning as a Service

Continuar leyendo