ZAP-TV

ZAP-TV

home

Tecnologías

El principio de siglo nos ha permitido asistir a un ejemplo más de la imparable evolución de la Web. Lo que en los años 80 fue la revolución de una Internet que hoy vemos limitada, e incluso pobre, en los 90 deja de ser un espacio que meramente proveía protocolos de interconexión y se convierte en un espacio integrado, la World Wide Web (Web 1.0). Desde la explosión de la burbuja de Internet (2001) se da un paso más en la evolución ofreciendo una nueva red de servicios, Web 2.0, que enfatiza la colaboración en línea y la compartición de la información de los usuarios en lo que hoy podemos decir es la versión más social de la Web (weblogs o bitácoras, podcasts, RSS, wikis, etc.) que podemos encontrar en sitios como Wikipedia, eBay, Digg (o Meneame), Flickr y AdSense, etc. Si la Web 1.0 se sustentaba en la simple presentación de información útil, en su versión evolucionada adquiere una actitud coparticipativa en la que la inteligencia en el uso de la información la ponen los usuarios en continuo contacto y colaboración.

Nos enfrentamos hoy (hasta 2020 en la línea de predicción de Nova Spivack, Radar Networks,ver Figura) a la nueva fase evolutiva de la Web, la Web 3.0. Es difícil definir la Web 3.0, especialmente si tenemos en cuenta que precisamente la Web 3.0 es lo que resta por definir desde hoy en adelante. Sin embargo, en sus primeros pasos se construirá de la amalgama de diversos conceptos, algunos heredados o evolucionados de la Web 2.0 y otros trasladados o adaptados de la Web Semántica. La inteligencia en el uso de la información deja de recaer enteramente en la capacidad humana de relacionar y razonar. La Web dejar de ser una interfaz para presentar información, más o menos rica, más o menos flexible, y aparece la inteligencia Web.

Dejamos atrás la Web interpretada por humanos (HTML) y buscamos la Web interpretada por máquinas (RDF, XML, OWL, etc.). Se trata de una Web inteligente, capaz de entender el lenguaje natural y buscar datos con la mínima intervención humana, impulsando un nuevo estilo de vida y comportamiento. Más allá de la Web 3.0., Spivack sitúa otro concepto, el de WebOS, que podría marcar el paso a la Web 4.0. Una visión futurista en la que las máquinas inteligentes podrán combinar las habilidades que hoy sólo caracterizan a la mente humana (fundamentalmente nuestra potencia en el reconocimiento de patrones) con aquellas otras habilidades en las que las máquinas son, ya hoy, superiores (como recordar y buscar en cantidades ingentes de información).

En este camino en la búsqueda de una Web 3.0 plena, el esfuerzo ha de ser progresivo. En este contexto se sitúa este proyecto que pretende el despliegue de un servicio social (baluarte de la Web 2.0) apoyado en un sustrato semántico que permita resolver algunos de los inconvenientes del la Web 2.0. Por otro lado, garantizar al máximo la socialización del servicio implica el acceso ubicuo y universal al mismo, plano que se incorpora al proyecto mediante la propuesta de un servicio de acceso multimodal (TV, PC, dispositivo móvil).

En este apartado se describirá cuál es el estado del arte en las diferentes tecnologías que intervienen de forma relevante en el desarrollo del presente proyecto. Dado que en este proyecto se inspira, en gran medida, en la filosofía cooperativa y social de la Web 2.0, ofrecemos una visión general sobre esta nueva forma de ver la Web, su alcance, sus ventajas y la situación actual. El puntal de la Web social es el establecimiento de comunidades virtuales que establecen vínculos entre diferentes usuarios unidos por intereses y/o características comunes. En el uso que esas comunidades hacen de los recursos de la Web y con el objetivo de compartir tales recursos emergen diferentes descripciones libres (folksonomías) de los mismos obtenidas de un esfuerzo colaborativo de la red social.

Sin embargo, el uso de un vocabulario libre sin un sustrato semántico común acarrea dificultades de automatización de procesos en la Web 2.0, siendo esta misma problemática la que originó los avances en Web Semántica. A pesar de su discurrir paralelo, la socialización de la Web (en la Web 2.0) se puede beneficiar del uso de tecnologías semánticas que mejoren la compartición y acceso automático a recursos de interés. Es así que el uso de ontologías se convierte en una herramienta clave en este proceso socializador y aglutinador de sinergias individuales, proporcionando el sustrato semántico para las folksonomías.

Por último, debido a que en un contexto de redes sociales construidas entorno a intereses comunes la recomendación automática adopta un papel relevante, dedicaremos los apartados a analizar dos aspectos esenciales en cualquier proceso de recomendación colaborativa: la algoritmia o técnicas aplicadas para afrontar un proceso de este tipo y la caracterización de los usuarios, respectivamente.

Por otro lado, el proyecto propone un servicio de acceso ubicuo y universal que si bien ampliamente conocido en su acceso Web, presenta su aportación más novedosa en el acceso mediante dispositivos móviles. El estándar DVB-H que será el utilizado para la difusión de la información a todos los usuarios de receptores móviles suscritos al servicio de distribución y etiquetado de contenidos.

Web 2.0

No se puede decir que exista una única definición del término Web 2.0 acuñado por O'Reilly Media en 2004. Sin embargo, está generalmente aceptado que el término hace referencia a una nueva generación de aplicaciones o servicios en la web que fomentan la participación de los usuarios y la colaboración entre los mismos. En su destacado artículo de 2005, Tim O'Reilly define lo que vienen a ser los principios básicos de la Web 2.0: la web como plataforma, el aprovechamiento de la inteligencia colectiva, la importancia de los datos como fuente de ventajas competitivas, la versión "beta" perpetua, modelos ligeros de programación, ubicuidad del software, e interfaces ricas para los usuarios. Alrededor de esta serie de principios se sitúan otra serie de ideas, aplicaciones o tecnologías propias de la Web 2.0.

La Web 2.0 supone un nuevo paradigma o evolución de la web que engloba un conjunto de tendencias, técnicas y metodologías que han surgido en los últimos años. En cualquier caso, es necesario diferenciar dos visiones o perspectivas de la Web 2.0: aquella que plantea una nueva web por y para las personas, y aquella que considera la web no ya como un servicio, sino como una plataforma para desarrollar nuevas aplicaciones. En la primera visión, la Web 2.0 enfatiza la participación de las personas a la hora de aportar: recursos, información, y anotación (descripción) de recursos e información. Bajo la segunda visión, la web debe construirse a partir de APIs interoperables y de modelos de confianza para fomentar la libre participación y utilización de tecnologías de libre acceso.

En cualquier caso, los principios clave que caracterizan la Web 2.0 son:

Ejemplos representativos de la Web 2.0 son Google maps, que ofrece un API para integrar y anotar mapas en cualquier aplicación web o Google Adsense que presenta una arquitectura de publicación-suscripción que ejerce de mediador entre un conjunto de empresas publicitarias y un conjunto de webs donde se presentan los anuncios; BitTorrent, que permite la distribución de ficheros de gran tamaño en aplicaciones P2P y que es la base para la Internet TV y otras aplicaciones basadas en contenido audiovisual; y por último, Amazon Web Services que aporta un conjunto de servicios web que resuelven funcionalidades relevantes para aplicaciones de comercio electrónico. Para el usuario del web, son relevantes, así mismo, Flickr, un famoso repositorio de fotos e imágenes que pueden ser descritas y compartidas por todos los usuarios registrados en el sistema o Del.icio.us, un repositorio compartido de URLs que se basa en los enlaces proporcionados por los usuarios, también destaca Amazon.com, que facilita recomendaciones a partir de las valoraciones y preferencias de los usuarios o Wikipedia, que representa el paradigma de la construcción cooperativa de conocimiento a partir de un sistema abierto de edición de páginas web y, finalmente, la blogosfera, donde cada usuario aporta noticias y recursos en su diario personal o blog.

La Web 2.0 también está asociada a la aparición de un conjunto de tecnologías que son clave tanto para facilitar la participación de las personas como para construir APIs interoperables:

Modelos de negocio

Una de las características más reseñables de la Web 2.0 es la socialización de la Red. Mientras en la web tradicional la mayoría de portales estaban impulsados por organizaciones, instituciones o empresas, en la Web 2.0 el impulso de las iniciativas se halla mucho más distribuido dado que el nuevo motor de actividad en la web son las personas a título individual. En este nuevo marco, ¿cuáles son entonces los nuevos modelos de negocio?

En el caso de las iniciativas 2.0 la estrategia para conseguir ingresos directos derivados de la actividad depende mucho de si nos basamos en la existencia de una audiencia (y cobramos a los que quieren contactar con ella) o en una tecnología (y cobramos a la audiencia, los usuarios, por disponer de ella).

En los primeros, los modelos basados en audiencia, se recalca el parecido cada vez mayor de Internet con los canales de comunicación convencionales. Los grandes paradigmas del movimiento Web 2.0 (del.icio.us donde la gente comparte sus enlaces; Flickr, donde comparte fotografías y YouTube donde comparten vídeos) basan su fuerza en la aportación de millones de personas, lo que a su vez les proporciona millones de visitantes. Esta audiencia hace posible plantearse un modelo de ingresos basado en publicidad. Otra opción de ingresos económicos vinculada a parámetros de audiencia es la de las comisiones por transacción. Si las personas que se desenvuelven en una propuesta web realizan operaciones económicas entre ellas, normalmente de compra venta, el promotor del sitio Web puede aspirar a una comisión sobre ellas (eBay es entonces el ejemplo clásico, siendo, sin duda, Second Life el otro gran ejemplo). Finalmente, el carácter social de muchas de las iniciativas enmarcadas en Web 2.0 hace que en muchas ocasiones su público constituya una audiencia con un alto grado de compromiso con el proyecto. Sus miembros o usuarios son personas que contribuyen al éxito de la iniciativa mediante no sólo aportación de contenidos sino contribuciones económicas (paradigma basado en donaciones Wikipedia).

En el segundo grupo de modelos, aquellos basados en la capacidad de ofrecer prestaciones avanzadas a los usuarios, encontramos en la Web 2.0 propuestas que complementan o mejoran servicios que tienen una base gratuita y de libre acceso. Por ejemplo, Pay for Premium Use que sólo cobraría en caso de acceso a mayores capacidades o a nuevas prestaciones (tal es el caso de Flickr). Otra opción plantea en explotar el servicio comercialmente sólo para uso corporativo, ofreciéndose de manera gratuita sólo al público en general (como ejemplo eConozco).

Comunidades Virtuales y Etiquetado Colaborativo

Una comunidad virtual o red social es la representación de una estructura de relaciones sociales entre individuos. La red social indica de qué forman están conectados los nodos (individuos) por medio de diversos indicadores de familiaridad, que van desde "conocidos" hasta "miembros de una misma familia". El análisis de redes sociales es hoy en día una técnica imprescindible de estudio social. Una red social se configura como un conjunto de nodos unidos entre sí por vértices que representan las relaciones entre ellos. Sobre esa red se pueden estudiar múltiples parámetros que definen su característica. Entre los más importantes se encuentran el grado de un nodo -el número de enlaces que tiene con los demás nodos-, la centralidad -que indica la importancia de un nodo dentro de la red-, el alcance -el grado en que cualquier miembro de la red puede llegar a otros miembros-, o la cercanía -el grado en el que un individuo se encuentra cerca de todos los otros miembros de la red. En general, el análisis de redes sociales se realiza sobre comunidades preexistentes. Pero el mismo análisis puede realizarse para crear comunidades y relaciones sociales, empleando los resultados del análisis de redes sociales como guía para su evolución. FOAF (Friend of a Friend) es el lenguaje más empleado para el modelado de redes sociales. FOAF está basado en RDF y se define empleando OWL. Fue diseñado para ser extensible y facilitar que sistemas informáticos diversos pudiesen compartir datos. FOAF permite definir a una persona e indicar a qué otras personas conoce.

En una red social, el etiquetado representa un esfuerzo de la comunidad de usuarios donde cada usuario, en base principalmente a sus intereses, contribuye directamente a la creación de una colección de metadatos compartida que, progresivamente, mejora su riqueza expresiva y su utilidad. Si cada usuario elige libremente el conjunto de etiquetas para un recurso, la colección refleja las actitudes sociales de la comunidad de usuarios e implícitamente desprende una organización compartida del espacio objetivo del etiquetado. Este proceso de clasificación gestionado por una comunidad social es acuñado por Thomas Vander Wal con el término folksonomy (folksonomía). El término folksonomía se refiere a la definición progresiva y colaborativa de una categorización y organización relajada del contenido. Es decir, una taxonomía relajada obtenida de forma colaborativa. Este proceso, sin embargo, no está exento de problemas consecuencia de la libertad en el etiquetado (problemas relacionados con sinónimos, polisemias, errores sintácticos, niveles de precisión, etc.) y que son consecuencia de la no inclusión de información semántica en el etiquetado.

Con el objetivo de mitigar los inconvenientes asociados al uso de folksonomías, es posible utilizar la folksonomía emergente para obtener vocabularios controlados o para enriquecer vocabularios ya existentes (identificando omisiones o mal interpretaciones). Al margen de este uso combinado, en el estado actual de la investigación podemos localizar diferentes propuestas orientadas a la mejora en la utilidad del etiquetado colaborativo y las folksononías en general.

En otro orden de cosas, los servicios de etiquetado colaborativo nacen de una comunidad de usuarios fuertemente comprometidos que invierten tiempo en el servicio y recomiendan su uso a otros usuarios. A pesar de los incentivos utilizados en este tipo de servicios, se percibe cierta fatiga o desencanto relacionados con:

Ontologías

Una ontología se define como una especificación formal y explícita de una conceptualización compartida. La conceptualización describe un modelo abstracto de un fenómeno que ocurre en el mundo real al identificar los conceptos importantes de ese fenómeno. El término "explícito" implica que los conceptos, relaciones, funciones, axiomas que se utilizan para describir el modelo y sus restricciones de uso están claramente definidos. El término "formal" describe el hecho de que la ontología tiene que ser ejecutable por la computadora. Y el término "compartida" refleja la noción de que una ontología recoge conocimiento consensuado, es decir, que no es privativo de una persona sino que está aceptado por todo un grupo.

Al principio de los años 90, las ontologías se construían principalmente utilizando técnicas de representación del conocimiento basadas en marcos, lógica de primer orden y lógica descriptiva. En 1993, Gruber identificó cinco tipos de componentes: clases, relaciones, funciones, axiomas e instancias. Sin embargo, en los últimos años, las técnicas de representación basadas en lógica descriptiva se han consolidado en el contexto de la Web semántica, creándose nuevos lenguajes como OIL, DAML+OIL y OWL. Los componentes que se utilizan para modelar ontologías en lógica descriptiva son fundamentalmente conceptos, roles e individuos.

Lenguajes de ontologías

Al comienzo de los años 90, se crearon un conjunto de lenguajes de ontologías basados en paradigmas de representación del conocimiento. Algunos estaban basados en lógica de primer orden con algunas extensiones, como KIF, mientras otros combinaban los marcos con la lógica de primer orden, como CycL, Ontolingua, OCML y Flogic, y otros utilizaban lógicas descriptivas, como LOOM. También en este periodo se creó el protocolo OKBC para acceder a ontologías implementadas en diferentes lenguajes basados en marcos.

El gran auge de Internet hizo que se crearan lenguajes de implementación de ontologías para poder explotar las características de la Web. A estos lenguajes se les conoce normalmente como lenguajes de la Web Semántica o lenguajes de ontologías de marcado, dado que su sintaxis se basa en la sintaxis de los lenguajes de marcado existentes, como HTML y XML, cuyo objetivo es la presentación y el intercambio de datos, respectivamente. Los ejemplos más sobresalientes de dichos lenguajes son: SHOE, XOL, RDF, RDF Schema, OIL, DAML+OIL, y OWL. De todos ellos sólo RDF y RDF Schema, cuya combinación se conoce normalmente como RDF(S), y OWL, están recibiendo respaldo de forma activa, por parte del consorcio de la World Wide Web (W3C), y son recomendaciones (estándares) de dicho consorcio.

Infraestructura tecnológica

Las primeras herramientas de desarrollo de ontologías se crearon a principios de los años noventa proporcionando interfaces de usuario que ayudaban a desarrollar ontologías en lenguajes basados en lógica. A finales de la década de los noventa el número de herramientas se incrementó en gran medida y la funcionalidad de las mismas se diversificó, distinguiéndose los siguientes grupos en la literatura:

Estrategias de recomendación

En la literatura podemos encontrar numerosos ámbitos para los que se hizo preciso disponer de herramientas de personalización, lo que ha dado lugar a que en los últimos años se propusieran una gran diversidad de enfoques para implementar este tipo de herramientas. Emplearemos los término usuarios activos para referirnos a los individuos para los que la herramienta de recomendación elabora una sugerencia personalizada, y producto objetivo para referirnos a aquellos productos sobre los que la herramienta de personalización deberá decidir si son o no adecuados.

Además de técnicas de modelado de usuarios (sobre las que versará el siguiente apartado), las herramientas de recomendación implementan diferentes estrategias para seleccionar aquellos productos que mejor se ajustan a las preferencias y/o necesidades de cada usuario. En la literatura, son cuatro los métodos de filtrado de información más extendidos:

Filtrado demográfico

El filtrado demográfico emplea las características personales de los usuarios (edad, sexo, estado civil, ocupación profesional, historiales de compra, aficiones, etc.), que se proporcionan durante la fase de registro en el sistema, para descubrir las relaciones existentes entre un determinado producto y el tipo de usuarios interesados en él. Por su naturaleza, este método modela las preferencias de los usuarios como un vector de características demográficas, y recurre a la técnica de estereotipos para inicializar sus perfiles. Así, todos aquellos usuarios que pertenezcan al mismo estereotipo recibirán las mismas sugerencias por parte del sistema. El filtrado demográfico adolece de dos limitaciones principales. Por una parte, puede conducir a recomendaciones demasiado generales e imprecisas para los usuarios, por considerar únicamente sus características demográficas. Además, este método no permite que las sugerencias ofrecidas se adapten a posibles cambios en las preferencias de los usuarios, dado que sus datos personales suelen permanecer invariables a lo largo del tiempo. A pesar de los inconvenientes comentados, el filtrado demográfico puede ser una estrategia útil si se combina con otros métodos.

Métodos basados en contenido

Esta técnica consiste en recomendar a un usuario activo aquellos productos que son similares a los que le han gustado en el pasado. Para ello, los perfiles de los usuarios deben contener las características o atributos que definen dichos productos. Si bien, por su propia naturaleza, es una estrategia muy precisa, sus limitaciones más importantes son:

Filtrado colaborativo

Es una de las técnicas de filtrado de información más empleadas en las herramientas de recomendación existentes. A diferencia de los métodos basados en contenido, a la hora de ofrecer una recomendación a un usuario activo, el filtrado colaborativo no considera sus preferencias personales, sino las de otros usuarios con intereses similares a los suyos (llamados en adelante vecinos). Esta similitud entre usuarios se estima a partir de las clasificaciones (o índices de interés) asociadas a cada una de sus preferencias en sus perfiles personales. Precisamente por ello, los enfoques colaborativos prescinden de las descripciones de contenido (características de los productos presentes en el perfil del usuario), requeridas en los métodos basados en contenido.

En la literatura podemos encontrar dos técnicas diferentes para este tipo de estrategia:

Dados un usuario activo y un producto objetivo, un sistema colaborativo debe predecir el nivel de interés del primero en relación a dicho producto, para así poder decidir si éste debe o no ser sugerido al usuario. En dicho proceso, podemos diferenciar tres fases. La primera tiene como objetivo seleccionar aquellos usuarios cuyas preferencias son similares a las del usuario activo. Por el contrario, los enfoques basados en ítem deben extraer aquellas preferencias del usuario que son más similares al contenido objetivo. Para medir tal similitud, este tipo de propuestas consideran las preferencias del resto de usuarios del sistema colaborativo. A continuación, es necesario formar el vecindario de este usuario (o de sus preferencias) a partir de la selección realizada en la etapa anterior. Finalmente, el sistema debe predecir el nivel de interés del usuario activo en relación al producto objetivo. Para ello, los enfoques basados en usuario consideran el nivel de interés de los vecinos del usuario activo en relación al producto objetivo. Por el contrario, la versión colaborativa basada en ítem considera el nivel de interés del usuario activo en relación a aquellos contenidos de su perfil que son más similares a dicho producto objetivo.

Por su propia naturaleza, los enfoques colaborativos permiten superar la falta de diversidad asociada a los métodos basados en contenido, ya que las recomendaciones elaboradas no se basan únicamente en las preferencias del usuario activo, sino que consideran los intereses del resto de usuarios del sistema. Esta cualidad se aprecia fácilmente en el método colaborativo basado en ítem, ya que en este caso, dos productos pueden ser similares (y por tanto recomendados al usuario activo) aun cuando no compartan ningún atributo semántico; simplemente es necesario que la mayoría de los usuarios del sistema los hayan clasificado a la vez en sus perfiles. Sin embargo, en el filtrado colaborativo también es posible identificar algunas limitaciones importantes:

Enfoques híbridos

Las limitaciones identificadas tanto en el filtrado demográfico, como en los métodos basados en contenido y el filtrado colaborativo, plantearon la necesidad de combinar varias de estas estrategias para así aunar sus ventajas y neutralizar sus inconvenientes, incrementando así considerablemente la precisión de las recomendaciones finales. Con esta premisa surgieron los denominados sistemas híbridos.

Uno de los modelos híbridos que gozan de mayor popularidad es el que combina el filtrado colaborativo y los métodos basados en contenido, en el que un producto objetivo puede ser sugerido, bien porque es similar a las preferencias del usuario activo, bien porque ha interesado a la mayoría de sus vecinos. Este esquema permite que ambas estrategias se complementen en favor de la calidad de las recomendaciones. Así, por ejemplo, un sistema híbrido es capaz de superar el excesivo parecido existente entre las recomendaciones basadas en contenido y las preferencias del usuario activo, gracias a que el enfoque colaborativo incorpora la experiencia del resto de usuarios del sistema, diversificando así las sugerencias ofrecidas. Por otra parte, el filtrado basado en contenido elimina los tiempos de latencia requeridos en los sistemas colaborativos para sugerir un producto nuevo. En un esquema híbrido, cualquier producto puede ser recomendado sin retardo alguno, siempre que los métodos basados en contendido consideren que se adapte a las preferencias personales del usuario activo.

Los diferentes enfoques híbridos propuestos en la literatura fueron evaluados de forma exhaustiva por Robin Burke, quien identificó siete posibles modelos a la hora de combinar estrategias de personalización de diferente naturaleza:

  1. Ponderado (Weighted): Decide si un determinado producto objetivo es sugerido o no al usuario considerando las salidas de todas las estrategias de recomendación (aunque puede que con pesos distintos para cada una de ellas) que implementa.
  2. Conmutación (Switching): En este caso, en lugar de ejecutar todas las estrategias simultáneamente, el sistema emplea algún criterio para conmutar entre ellas.
  3. Mixto (Mixed): Reúne en una misma recomendación productos que han sido sugeridos mediante las diferentes estrategias implementadas en el sistema híbrido.
  4. Combinación de características (Feature combination): Reúne en un único conjunto los datos que utilizan las diferentes estrategias de personalización, y con éste se ejecuta un solo algoritmo de recomendación. Por ejemplo, si se combinan los métodos basados en contenido y el filtrado colaborativo, este esquema podría utilizar la información colaborativa (clasificaciones de los usuarios) como una característica más de las preferencias de los usuarios, sobre las que finalmente se ejecutaría el filtrado basado en contenido.
  5. Cascada (Cascade): Funciona en dos etapas: primero se ejecuta una de las estrategias de recomendación sobre las preferencias del usuario, obteniendo un primer conjunto de productos candidatos a ser incluidos en la recomendación final. A continuación, una segunda estrategia refina la recomendación y selecciona sólo algunas de las sugerencias obtenidas en la primera etapa.
  6. Incorporación de características (Feature augmentation): En este esquema, una de las estrategias se emplea para calcular una clasificación para un producto concreto. A continuación, esa información se incorpora como dato de entrada para las siguientes técnicas de recomendación. En otras palabras, la salida de una de las estrategias de recomendación se utiliza como entrada en las siguientes. La diferencia fundamental entre este esquema híbrido y el modelo en cascada, es que en este último la segunda estrategia sólo trabaja sobre el conjunto de productos candidatos obtenidos por la primera de ellas, prescindiendo de cualquier tipo de información adicional calculada por ésta. Por el contrario, en el modelo basado en incorporación de características, toda la información que proporcione la primera de las técnicas, se utiliza en la(s) siguiente(s). 7. Metanivel (Meta-level): En este caso, el modelo completo generado por una de las estrategias se utiliza como entrada en las restantes. La diferencia fundamental entre este sistema híbrido y el basado en incorporación de características, es que en este último el modelo aprendido sólo se utiliza para generar características que se usan como entrada en las siguientes estrategias, mientras que en el híbrido de metanivel se utiliza todo el modelo como dato de entrada. Todos los enfoques de personalización revisados en esta sección basan sus recomendaciones en la inferencia de conocimiento a partir de las preferencias de los usuarios activos. Sin embargo, ninguno de ellos infiere dicho conocimiento a partir de un proceso de razonamiento basado en descubrir relaciones semánticas complejas entre dichas preferencias y los contenidos considerados durante el proceso de recomendación. Este tipo de razonamiento semántico, inspirado en la filosofía de la Web Semántica, requiere representar el conocimiento sobre el dominio de aplicación del sistema y descubrir relaciones complejas entre las entidades formalizadas en el mismo. Para inferir las mencionadas relaciones semánticas, los recomendadores necesitan disponer de metodologías para la consulta de las bases de conocimiento y la recuperación de información personalizada desde las mismas.

Caracterización de los usuarios: Perfiles de Usuario

Estrategias para el modelado de usuarios

Construir perfiles precisos es una tarea clave para asegurar el éxito de las recomendaciones, consiguiendo de esta forma reforzar la confianza del usuario en el sistema de personalización. Para los diferentes dominios de aplicación en los que se emplean herramientas de personalización, se han propuesto diferentes estrategias para representar perfiles de usuario, entre las que cabe destacar:

Métodos para la creación de perfiles iniciales

Una vez decidido el modelo de representación de las preferencias de los usuarios activos, es necesario recurrir a mecanismos que permitan inicializar sus perfiles personales. Al respecto, en la literatura podemos encontrar mecanismos de diversa naturaleza, entre los que cabe destacar por su mayor importancia:

Técnicas para que los usuarios proporcionen al sistema información de relevancia sobre las sugerencias ofrecidas

El término realimentación de relevancia identifica la información que los usuarios proporcionan al sistema recomendador al evaluar las recomendaciones que reciben. Gracias a esta información, el sistema puede modificar los perfiles de los usuarios, y así acelerar la convergencia entre los intereses reales de los usuarios y las sugerencias que se les ofrecerán en el futuro. Las herramientas de personalización recurren a diversos métodos para obtener esta valiosa información. El más sencillo y directo de todos ellos es aquel en el que el propio usuario declara explícitamente su interés/desinterés en relación a cada producto sugerido. Una solución mejorada con respecto a ésta consiste en inferir dicha información a partir de la interacción entre el usuario y el sistema. Por último, algunos sistemas optan por un enfoque híbrido que combina los dos modelos anteriores:

Técnicas para la adaptación del perfil de usuario

En general, las preferencias de los usuarios activos en un sistema recomendador variarán a lo largo del tiempo, de ahí que la realimentación de relevancia sea un elemento clave a la hora de reflejar sus nuevos intereses y/o necesidades. Conscientes de esta evolución, se han propuesto diferentes métodos para poder adaptar los perfiles de los usuarios a sus nuevas preferencias, eliminando aquellas que han quedado obsoletas. Entre estos enfoques podemos destacar por su importancia los siguientes: