Monitoriza la reputación corporativa con nuestra nueva API

¿Necesitas entender el impacto que sobre tu reputación corporativa (o la de tus clientes) tienen medios sociales y noticias? Ahora una nueva API de MeaningCloud  te permite analizar toda esa información en tiempo real y estructurarla según las dimensiones de los esquemas de reputación más habituales.

Algunos clientes han venido reclamándonos una manera precisa de entender el impacto de las opiniones en medios sociales y otros canales sobre una empresa.

Reputación CorporativaLas herramientas de monitorización social proporcionan un análisis de sentimiento básico que en el mejor de los casos llega a identificar que un cierto comentario (ej.: un tuit) expresa una opinión positiva o negativa sobre una entidad y utilizan esos datos agregados en diagramas y evoluciones temporales. Pero analizar una realidad tan poliédrica como la reputación de una empresa requiere un análisis de opinión más granular.

Aunque se suele identificar con la reputación online, la reputación corporativa es un concepto diferente: consiste en un agregado de las opiniones y percepciones que el público tiene sobre una cierta empresa. Y se trata de una característica multidimensional, ya que esas opiniones se evalúan en torno a una serie de ejes más o e menos estándar:  Situación financiera, Calidad de sus productos, Innovación, Estrategia…

Un análisis de reputación más social y en tiempo real

Hasta ahora la reputación corporativa se ha venido evaluando mediante entrevistas y encuestas a clientes y analistas, y se ha proporcionado en forma de informes periódicos estáticos. Pero cada vez son más los clientes que no se conforman con una “foto fija” a posteriori, basada en unas pocas opiniones. Ahora desean incorporar a ese cuadro el impacto que los medios sociales y tradicionales tienen sobre su reputación, y disponer de esa información en la forma más actualizada y actuable para detectar cuanto antes crisis reputacionales en gestación.

Con la presente actualización de MeaningCloud incorporamos una nueva API de Reputación Corporativa que permite abrir el análisis reputacional a la enorme cantidad de opiniones espontáneas vertidas en todo tipo de medios (redes sociales, foros, blogs, sitios de noticias) y en tiempo real.

La API realiza un etiquetado reputacional de textos: recibe un documento (tuit, noticia, comentario en encuesta), detecta las empresas de las que se habla, identifica las dimensiones reputacionales involucradas y extrae la polaridad que afecta a cada una. Y todo ello con un gran nivel de precisión y granularidad, discriminando las opiniones sobre empresas diferentes que pueden coexistir en una única frase. Este resultado se devuelve en forma de etiquetas en formato estándar que pueden utilizarse para agregar, relacionar, detectar tendencias, generar alertas, etc.…

En su interior, la API utiliza un pipeline muy optimizado que incorpora técnicas de extracción de información, clasificación automática y análisis de polaridad. Y está basada en interfaces estándar y dispone de SDKs que permiten integrarla en cualquier aplicación o herramienta de monitorización. Más información aquí.

Usando esta API puedes complementar los estudios de reputación tradicionales con un análisis más ágil e inmediato del impacto de medios sociales, noticias, etc. y así gestionar de una manera más dinámica ese activo tan importante de tu empresa.

Y no olvides que en esta actualización de MeaningCloud incorporamos dos APIs provenientes de nuestro anterior producto, MeaningCloud: Análisis Lingüístico y Corrección de Textos.


Migrando desde Textalytics: API de Corrección y Análisis Lingüístico

Recientemente hemos publicado y actualizado en MeaningCloud dos de las funcionalidades que faltaban por migrar desde Textalytics:

  • Correción automática de textos que permite revisar la ortografía, gramática y estilo de tus textos en varios idiomas: Español, Inglés, Francés e Italiano.
  • Análisis língüístico detallado incluyendo lematización, análisis morfológico y sintáctico también para múltiples idiomas. En este caso además de Español, Inglés, Francés e Italiano también está disponible para Portugués y Catalán.

Todos los usuarios de Textalytics tienen acceso a MeaningCloud usando el mismo correo y clave que ya tenían. Si no recuerdas tu contraseña, puedes renovarla en este enlace.

Desarrolladores que usan las API de Textalytics de Corrección Automática o de Lematización y Análisis Morfológico y Sintáctico

Si eres usuario de las anteriores funcionalidades y deseas migrar a MeaningCloud, puedes hacerlo ya. Puedes seguir los siguientes pasos:

  1. Actualiza el punto de acceso en tus peticiones para usar MeaningCloud, tanto el formato de la petición como el de la respuesta no cambian. Recuerda que puedes usar tanto HTTP como HTTPS.
    API Textalytics MeaningCloud
    Spell, Grammar and Style Proofreading
    https://textalytics.com/core/stilus-1.2
    http://api.meaningcloud.com/stilus-1.2
    Lemmatization, POS and Parsing API
    http://textalytics.com/core/parser-1.2
    http://api.meaningcloud.com/parser-1.2
  2. Comprueba tu clave de licencia en MeaningCloud y asegúrate de que usas la licencia correcta (y única) como valor del parámetro ‘license key’ en todas las llamadas. Puedes cortar y pegar tu licencia desde la sección Licenses en los detalles de tu cuenta o desde la página de inicio para desarrolladores.

Como siempre, si tienes dudas o problemas no dudes en escribirnos a support@meaningcloud.com. En cualquier caso y para garantizar la transición sin problemas de las aplicaciones que las usan, todos los puntos de acceso de las APIs de Textalytics permaneceran operativos hasta el 1 de junio de 2015.


El mercado de analítica de texto en 2015: Seth Grimes entrevista al CEO de MeaningCloud

Seth GrimesSeth Grimes es uno de los analistas de referencia en el sector de analítica de texto. Como parte de su informe anual de revisión y perspectivas sobre la evolución de esta tecnología y su mercado, Seth entrevistó a un grupo de directivos del sector para conocer sus impresiones sobre el estado de esta industria y sus previsiones para el año entrante.

José Carlos González, CEO de Daedalus / MeaningCloud, fue uno de los directivos seleccionados. En la entrevista, Seth y José Carlos conversan sobre perspectivas del sector, avances tecnológicos y el dilema “amplitud frente a profundidad” al que se enfrentan muchos proveedores de analítica de texto.

Éste es un fragmento de la entrevista:

Caminos para la comercialización de la analítica de texto: Q&A con José Carlos González, Daedalus

¿Qué deberíamos esperar de su empresa y del sector en 2015?

Analítica de la Voz del Cliente (VoC) -y en general, todo el movimiento alrededor de la experiencia del cliente- continuará siendo el motor más importante para el mercado de la analítica de texto.

El reto para los próximos años estará en proporcionar a nuestros clientes insights de alto valor y “accionables”. Estos insights deberían integrarse con Sistemas CRM para ser tratados junto a la información estructurada, y así explotar completamente el valor de los datos acerca de los clientes de los que disponen las empresas. La preocupación sobre la privacidad y la dificultad para conectar las identidades sociales con las personas y empresas reales seguirán constituyendo una barrera para alcanzar resultados más explotables.

———

¿Te interesa? Lee el resto de la entrevista, que repasa los desarrollos en el mercado y nuestras estrategias de empresa y producto, en el blog de Seth Grimes.


Efectos adversos de los medicamentos y medios sociales

Las reacciones adversas a medicamentos (RAM) son el problema más importante de seguridad en el campo de la salud. Se refieren a los efectos dañinos y no intencionados que producen los fármacos en el tratamiento de enfermedades y profilaxis, ya sea cuando se administran dosis normales, ya sea cuando se incurre en errores de medicación o usos incorrectos. Son la cuarta causa de muerte en pacientes hospitalizados en EEUU. Por ello, el área de la farmacovigilancia está recibiendo una gran atención debido a la gran incidencia de las RAM y al alto coste que llevan asociadas (entre el 15 y el 20 por ciento del gasto hospitalario se debe a complicaciones debidas a fármacos).

Determinadas RAM no se descubren durante los ensayos clínicos dado que no pueden conocerse hasta que el fármaco lleva varios años en el mercado. Por ello, las agencias de medicamentos deben vigilar las RAM una vez comercializado el medicamento, y el principal instrumento del que disponen son los sistemas de notificación voluntaria en los que profesionales y pacientes informan sobre sospechas de RAM (en España los pacientes pueden informar desde julio de 2012). Sin embargo, estos sistemas apenas se utilizan, pues se estima que solo se notifican entre un 5% y un 20% de las RAM, ya sea por la falta de tiempo, por la complejidad del proceso, por el poco conocimiento respecto a las RAM o por la mala coordinación entre niveles asistenciales.

En el marco del proyecto europeo TrendMiner se ha creado un prototipo para analizar comentarios en redes sociales que incorpora el procesamiento semántico de MeaningCloud para reconocer las menciones de fármacos, efectos adversos y enfermedades. El sistema visualiza la evolución de estas menciones y sus “coocurrencias”, es decir, registra qué fármacos se mencionan y con qué efectos adversos. Por ejemplo, el sistema monitoriza fármacos pertenecientes a la familia de los ansiolíticos y para ello no solo tiene en cuenta las menciones de los principios activos o medicamentos genéricos de este grupo (entre otros el lorazepam y el diazepam) sino también las marcas comerciales (como el Orfidal). Todas estas menciones se pueden analizar además en relación con sus efectos terapéuticos (entre los cuales están Orfidal indicado para ansiedad) y sus efectos adversos (tales como Orfidal puede producir temblores).

Para más información sobre el proyecto, desarrollado con la participación de la Universidad Carlos III de Madrid, ir al sitio web de la universidad.

Las empresas del dominio de salud y las farmacéuticas ya pueden explotar su información no estructurada


En la industria farmacéutica y de salud
, tenemos a nuestra disposición nuevas herramientas de ciencia de datos capaces de extraer información valiosa sobre documentos de redacción libre como las historias clínicas electrónicas. Es posible explotar la información asociada a datos como el coste de tratamientos médicos, su eficiencia (precio, ventajas y riesgos), referencias a fármacos, efectos secundarios o resultados a largo plazo.


La Voz del Cliente: el sector bancario

«La Voz del cliente (VoC) es una técnica de investigación de mercado que permite descubrir con precisión lo que un cliente desea o necesita, dándole una estructura jerárquica y asignándole prioridad en función de su importancia relativa y satisfacción con las alternativas existentes»

Voz del cliente (VoC)

La Voz del cliente (VoC) no es un concepto nuevo. De una manera u otra, ha sido incluida en los procesos de control de calidad desde hace años, pero su plena integración en el flujo de trabajo sigue siendo una tarea pendiente para muchas empresas. La Voz del Cliente permite escuchar, interpretar y reaccionar a lo que se dice y luego seguir a lo largo del tiempo el impacto de las acciones llevadas a cabo.

El desafío actual al que se enfrentan las empresas reside en el volumen de datos disponibles. En esta era digital, las opiniones están aumentando constantemente y ya no se limitan a las encuestas periódicas que se envían a los clientes. El boca a boca es ahora digital y se ha vuelto más relevante que nunca: cualquier persona con una cuenta de Facebook o Twitter expresa una opinión, y cada vez más es sobre los productos y servicios que utiliza.

Un cliente típico

Un cliente

Al igual que muchos otros, el sector bancario necesita saber cómo convertir la fuente de conocimiento de primera mano que le aportan sus clientes en algo útil, algo que se pueda utilizar en el proceso de toma de decisiones de la empresa.

La Voz del Cliente combina dos elementos clave de la extracción de información: la necesidad de conocer en detalle de qué está hablando el cliente e interpretar correctamente los sentimientos asociados. El primer aspecto permite evaluar la opinión expresada desde una perspectiva cuantitativa, mientras que el segundo permite — más bien desde un punto de vista cualitativo — entender qué está haciendo bien o mal una empresa según el cliente.

El sector bancario tiene la dificultad añadida de proporcionar una muy amplia gama de productos y servicios, cada uno de ellos con subcategorías muy específicas y proporcionados a través de canales completamente diferentes.

Continuar leyendo


Textalytics es ahora MeaningCloud

Si has visitado recientemente el sitio de nuestro producto Textalytics te habrá sorprendido el cambio de apariencia… y de nombre. Después de un año y medio comercializando Textalytics y recibiendo un feedback continuo de nuestros usuarios y clientes hemos decidido que esta nueva iteración sea más “sustancial” y nos sirva para acercarnos más al producto que nos estáis demandando.

Durante este tiempo hemos conseguido varios miles de clientes en todo el mundo, que usan nuestras APIs en aplicaciones críticas para su negocio. A todos ellos les agradecemos su confianza y les aseguramos que dispondrán de un camino sencillo y claro de migración a MeaningCloud.

Conceptualmente no hay grandes modificaciones: queremos que MeaningCloud siga siendo la manera más sencilla, segura y económica de convertir tu contenido no estructurado en información accionable y para ello seguimos aplicando un modelo de APIs en la nube. Pero con este cambio queremos redoblar nuestra apuesta por la sencillez y en la personalización, y eso se traduce en algunas mejoras.

Un producto mejorado y más sencillo

Lo más importante a destacar es que todas las API de Textalytics van a seguir estando operativas hasta el 1 de junio de 2015, así que de momento no tenéis que hacer ningún cambio.

Por otra parte, toda la funcionalidad que usabais de Textalytics (Text Classification, Topic Extraction, Sentiment Analysis, etc.) está replicada en MeaningCloud – aunque con el inevitable cambio de nombre en los puntos de acceso-, con lo cual el esfuerzo de migración es mínimo.

Pero también hay algunas novedades significativas: la principal la constituyen las nuevas funcionalidades de personalización. Lo más importante que hemos aprendido con Textalytics es que el principal factor de éxito en una aplicación de análisis semántico radica en la personalización del las herramientas al dominio de cada cliente (sus marcas, productos, departamentos, competidores…). Y, también, que los clientes queréis ser autónomos en esa personalización e incorporar vuestros diccionarios, modelos, etc. de una manera sencilla.

Por eso MeaningCloud incorpora una nueva interfaz para la personalización y adaptación del análisis de texto. En esta release ya puedes crear tus propios modelos de clasificación. En las próximas semanas, añadiremos herramientas para que crees tus propios diccionarios o puedas ajustar el análisis de sentimiento a medida. Además, estrenamos una nueva área de usuarios,  que facilita  el acceso a la documentación, a las configuraciones personalizadas y a la información de consumo. Por último, la clave de licencia es ahora única para que aún sea más sencillo empezar a usar MeaningCloud.

Y finalmente, un cambio que va a ser muy bien recibido en un aspecto muy significativo del servicio: su precio. Hemos simplificado el esquema de tarifas, que ahora utiliza el número de consultas (requests) como variable de escalado. Este nuevo esquema, sugerido por nuestros usuarios, facilita la planificación del consumo y proporciona un criterio más sencillo de tarificación en todas las API. También es un esquema más favorable para las aplicaciones que procesan textos de mayor longitud.

Pero además, ampliamos nuestro Plan Gratis (que con 40.000 solicitudes por mes es el más generoso del mercado) y creamos un escalón de entrada con una cuota más baja, de 99 dólares. Para que nadie que quiera evaluar o prototipar sobre MeaningCloud o usarlo en aplicaciones comerciales encuentre un impedimento en el precio.

Un sitio web renovado

Atendiendo a vuestras peticiones, hemos rediseñado nuestro sitio web (tanto en interacción y arquitectura de información como en diseño gráfico) para simplificar y optimizar la experiencia de visitantes y usuarios.

Además del área de carácter más informativo, en abierto, hay un área de desarrolladores que recoge la documentación sobre las APIs y herramientas de integración y que da acceso a un área privada de usuarios renovada.

Y queremos aportaros una mejor experiencia no solo cuando os informéis sobre MeaningCloud (sus prestaciones, las soluciones que se pueden desarrollar sobre él), también durante el proceso de suscripción. Ahora, para las modalidades de contratación estándar, el proceso es totalmente automático y se puede pagar usando PayPal.

Una nueva identidad

Finalmente, pero no por eso menos importante, hemos decidido cambiar el nombre al producto. Teníamos la impresión de que el nombre Textalytics estaba demasiado asociado a una funcionalidad, la de analítica de texto, cada vez más estandarizada.

Nuestra vocación es extraer significado de los contenidos, es decir, ir más allá del reconocimiento de entidades o la clasificación básica -que constituyen la funcionalidad estándar de la analítica de texto- para analizar sentimiento, perfilar usuarios o detectar intenciones.

Y la posibilidad de disponer de esas capacidades desde la nube y de integrarlas fácilmente en cualquier aplicación mediante SDKs y plug-ins -en definitiva, nuestro concepto de Meaning as a Service- es una propuesta de valor tan clara y disruptiva que merece figurar explícitamente en el nombre. De ahí MeaningCloud.

Soy un usuario de Textalytics ¿qué debo hacer?

Si eres un usuario actual de Textalytics, probablemente te estés preguntando ¿cómo me va a afectar este cambio? Te lo explicamos en el siguiente post.


Usuarios de Textalytics: ¿Cómo migrar tu aplicación a MeaningCloud?

Todos los usuarios de Textalytics tienen acceso a MeaningCloud usando el mismo correo y clave que ya tenían. Si no recuerdas tu contraseña, puedes renovarla en este enlace.

Hemos simplificado la autenticación y la forma de contabilizar el consumo del servicio. En MeaningCloud con la misma licencia puedas usar todas las API y además ahora tu consumo se medirá en peticiones. Para garantizar la transición sin problemas de las aplicaciones que las usan, todos los puntos de acceso de las APIs de Textalytics van a estar operativos hasta el 1 de junio de 2015 .

Desarrolladores que usan las API de Textalytics

Si eres usuario de las siguientes funcionalidades y deseas migrar a MeaningCloud, puedes hacerlo ya. Puedes seguir los siguientes pasos:

  1. Actualiza el punto de acceso, tanto el formato de la petición como el de la respuesta no cambian. Recuerda que puedes usar tanto HTTP como HTTPS.
    API Textalytics MeaningCloud
    Sentiment Analysis
    http://textalytics.com/core/sentiment-1.2
    http://api.meaningcloud.com/sentiment-1.2
    Topics Extraction
    http://textalytics.com/core/topics-1.2
    http://api.meaningcloud.com/topics-1.2
    Text Classification
    http://textalytics.com/core/class-1.1
    http://api.meaningcloud.com/class-1.1
    Language Identification
    http://textalytics.com/core/lang-1.1
    http://api.meaningcloud.com/lang-1.1
  2. Comprueba tu clave de licencia en MeaningCloud y asegurarte de que usas la licencia correcta (y única) como valor del parámetro ‘license key’ en todas las llamadas. Puedes cortar y pegar tu licencia desde la sección Licenses en los detalles de tu cuenta o desde la página de inicio para desarrolladores.

A los usuarios del resto de API , os informaremos por email en función de las características del Plan contratado a medida que las funcionalidades se encuentren disponibles en MeaningCloud.

Usuarios del add-in de Textalytics para Excel

En el caso de que uses el add-in para Excel y quieras actualizarte a MeaningCloud:

  1. Desinstala el add-in de Textalytics para Excel.
    1. Abre el Panel de Control > Programas > Programas y Características
    2. Selecciona Textalytics add-in for Excel y pulsa el boton Desinstalar.
  2. Descarga la nueva versión del add-in de MeaningCloud para Excel 2.0 que ya contiene los puntos de acceso actualizados.
  3. Instala la nueva versión.
  4. Configura tu clave de licencia para empezar a analizar texto

 

Como siempre, si tienes dudas o problemas no dudes en escribirnos a support@meaningcloud.com


Mejorando la gestión de emergencias analizando contenidos en redes sociales

¿Servir a los ciudadanos sin escuchar los medios sociales?App Llamada Emergencias

Los canales tradicionales de acceso a los servicios de emergencias por parte de los ciudadanos (típicamente a través de los teléfonos 112) deben ser expandidos con el análisis de medios sociales en tiempo real (canales web 2.0). Esta observación es el punto de partida de una de las líneas en las que el Grupo Telefónica (uno de los proveedores de referencia mundiales en sistemas integrados de gestión de emergencias) ha venido trabajando con vistas a su integración en su plataforma SENECA.

 

Cuadro de mando social para gestión de emergencias

Desde Daedalus (ahora MeaningCloud), hemos trabajado para Telefónica en el desarrollo de un cuadro de mando social que analiza y organiza la información compartida en redes sociales (inicialmente Twitter) antes, durante y después de que se produzca un incidente de interés para los servicios de atención a emergencias. Desde el punto de vista funcional, esto conlleva:

  • Recoger las interacciones (tuits) relativos a incidencias en un área geográfica determinada
  • Clasificarlas según el tipo de incidencia (concentraciones, accidentes, desastres naturales…)
  • Identificar la fase en el ciclo de vida de la incidencia (alerta o pre-incidencia, incidencia o post-incidencia)

 

Beneficios para las organizaciones que gestionan emergencias

Anticipar incidentes

Love Parade Duisburg

Anticipación a eventos que, por imprevisibles o por desconocerse su magnitud a priori, deban ser objeto de atención futura por los servicios de atención a emergencias. Dentro de este escenario se encuentran los eventos sobre concentración de personas que son convocados, difundidos o simplemente comentados a través de redes sociales (asistencia a eventos festivos o deportivos, manifestaciones, etc.) Predecir las dimensiones y alcance de estos eventos es fundamental para planificar la atención por parte de las diferentes autoridades. Recordemos en este sentido el caso de los disturbios a raíz de una fiesta de cumpleaños convocada en la localidad holandesa de Haren a través de la red Facebook en 2012 o la tragedia de la Love Parade de Duisburg.

Continuar leyendo


El papel de la Minería de Texto en el Sector de Seguros

¿Qué pueden hacer las aseguradoras para explotar toda su información no estructurada?

Un escenario típico de big data

Las compañías de seguros recogen ingentes volúmenes de texto diariamente, a través de múltiples canales (sus agentes, centros de atención a clientes, correo electrónico, redes sociales, web en general). Las informaciones recogidas incluyen pólizas, informes periciales y de salud, reclamaciones y quejas, resultados de encuestas, interacciones relevantes de clientes y no-clientes en redes sociales, etc. Es imposible atender, clasificar, interpretar o extraer la información esencial de todo ese material.

El Sector de Seguros es uno de los que más puede beneficiarse de la aplicación de las tecnologías para análisis inteligente de texto en formato libre (conocido como Analítica de Textos, Minería de Textos o Procesamiento de Lenguaje Natural).

Para las aseguradoras, se añade el reto de combinar el resultado del análisis de esos contenidos textuales con datos estructurados (almacenados en bases de datos convencionales) para mejorar la toma de decisiones. En este sentido, los analistas del sector consideran decisivo el uso de múltiples tecnologías basadas en Inteligencia Artificial (sistemas inteligentes), aprendizaje automático (minería de datos) y procesamiento de lenguaje natural, (tanto estadístico como simbólico o semántico).

Áreas más prometedoras de la analítica de textos en el Sector de Seguros

Detección de fraude

Detección de Fraude
Según Accenture, en un informe publicado en 2013, se estima que las compañías aseguradoras pierden en Europa entre 8.000 y 12.000 millones de euros al año debido a reclamaciones fraudulentas, con una tendencia creciente. Asimismo, el sector estima que entre un 5% y un 10% de las indemnizaciones abonadas por las compañías en el año anterior eran por motivos fraudulentos, no pudiendo ser detectados debido a la falta de herramientas analíticas predictivas.

Según el medio especializado “Health Data Management”, el sistema de prevención de fraude de Medicare en EE.UU., basado en algoritmos predictivos que analizan patrones en la facturación de proveedores, ahorró más de 200 millones de dólares en pagos rechazados en 2013.

Continuar leyendo


Análisis de audiencias y opinión sobre eventos en la TV Social

A finales de junio participamos en la conferencia internacional TVX 2014 sobre experiencias interactivas para televisión y vídeo online con una demo titulada “Numbat – Tracking Buzz and Sentiment for Second Screens“. En ella mostramos nuestro trabajo y experiencia en análisis de medios sociales aplicado a televisión y eventos en directo, combinando tecnologías de análisis semántico y procesamiento de datos en tiempo real para obtener métricas sobre la audiencia y su opinión acerca de cada uno de los aspectos de un programa o evento en vivo.

La televisión social es un fenómeno no sólo en continuo crecimiento, sino plenamente asentado en el panorama internacional, con multitud de empresas especialmente interesadas en la interacción con el usuario y el marketing social. Las redes sociales están haciendo especial hincapié en esta interacción entre el usuario y la programación televisiva. Para hacernos una idea de la magnitud que alcanza la conversación social se puede echar un vistazo a los datos que genera un evento internacional como el Mundial FIFA 2014 en Twitter.

cristianoDurante el congreso pudimos ver los caminos que va tomando tanto la industria como el campo de la investigación para aportar su visión sobre la TV social e interactiva. Un ejemplo es el de las aplicaciones de segunda pantalla, que permiten al espectador una mayor profundización en el contenido que consume, ya sea mediante información relacionada con la emisión (normalmente introducida ad hoc y sincronizada en tiempo para una mejor experiencia) o a través del descubrimiento automático de tendencias. Otras aproximaciones pasan por la recomendación personalizada de programas, estudiando los hábitos y comportamientos del espectador frente a la televisión.

Para nuestra demostración, elegimos visualizar dos partidos del Mundial 2014 que se jugaban al mismo tiempo: Estados Unidos – Alemania y Portugal – Ghana.

Continuar leyendo