Miércoles, 23 Mayo 2007

Este lunes, 21 de mayo, el SQUaC ha estado presente en la 4ª Jornada de Usabilidad en Sistemas de Información Digital, organizada por el COBDC en la Universitat Pompeu Fabra de Barcelona; la jornada se ha repartido en diferentes ponencias por la mañana y en un seminario por la tarde.

La asistencia ha sido bastante numerosa; daba la impresión de que muchos de los participantes no tenían perfil técnico, sino más bien de bibliotecario-documentalista, lo cual no hace sino recordar el carácter multidisciplinar que tiene, sin lugar a dudas, la usabilidad. La calidad de las fotos es bastante mala, pero poco más se puede conseguir con una PDA, de lejos y sin flash.

Las ponencias han sido:

  • Information Architecture & Findability (Peter Morville, Semantic Studios)
  • Estándares y accesibilidad web (Jesús García, W3C oficina española)
  • Retos de usabilidad y accesibilidad en la administración pública (Daniel Torres Burriel, Net2u)
  • De la web sintáctica a la web semántica (Lluís Codina, Universitat Pompeu Fabra)
  • Minería web para mejorar sitios web (Ricardo Baeza-Yates, Yahoo! Research)

Information Architecture & Findability (Peter Morville, Semantic Studios)

La primera ponencia de la mañana ha sido realizada por Peter Morville, la "estrella" de esta jornada, uno de los autores del best-seller Information Architecture for the World Wide Web (conocido popularmente como "el libro del oso polar"), y que está considerado prácticamente como el padre de esa disciplina (al menos, con esa denominación).

Peter Morville, durante su charla

Morville ha iniciado su charla con una breve presentación en la que se define como un Information Architecture pioneer, y recuerda que su carrera profesional viene de las áreas de biblioteconomía y documentación. A partir de ahí, resalta la dificultad de encontrar una definición clara para Arquitectura de Información, que considera que tiene algo de arte y algo de ciencia.

Para él, la usabilidad es un concepto que ha ido creciendo hasta convertirse prácticamente en un sinónimo de calidad. A partir de ahí, expone el que es uno de los esquemas centrales de su presentación: el "panal de la experiencia de usuario".

User Experience Honeycomb

Estas son los aspectos que intervienen en la experiencia de usuario; el esquema indica además cómo se relacionan entre ellos. Por ejemplo, vemos que la credibilidad (credible) está junto a la capacidad de ser encontrado (findable). Y de hecho, asegura que los sitios web más fáciles de encontrar tienen mayor credibilidad; los usuarios suelen confiar habitualmente en los sitios devueltos en las primeras posiciones por los buscadores.

Es precisamente esa capacidad de ser encontrado (findability) la que centra su interés, y la que le lleva a dos cuestiones. Ahora que existe una cantidad inmensa de información disponible en la red,

  • ¿Debemos realmente ofrecer toda la información de la que somos capaces?
  • ¿Son mejores las decisiones con tanta información?

Morville no deja de llamar la atención sobre las cuestiones de privacidad, que van a ser cada vez más importantes, sobre todo en el momento en que la conexión a Internet se halle disponible en prácticamente cualquier objeto de uso cotidiano ("Internet de los objetos").

Así pues, ¿cómo vamos a encontrar lo que buscamos entre tal cantida de información? No parece que la Inteligencia Artificial o mejores sistemas de visualización (gráfica) vayan a ser la solución definitiva; así pues, hay que confiar en los expertos (los "bibliotecarios", los arquitectosde información) que clasifiquen toda esa información a través de metadatos.

En cuanto a los sistemas de clasificación social como el social tagging (clasificaciones realizadas por muchos usuarios añadiendo etiquetas como en YouTube o Flickr), Morville opina que pueden ser útiles como sistemas complementarios, pero no sustituyen de modo eficaz a las clasificaciones en categorías realizadas por expertos, sobre todo porque agrupan conceptos pero no definen jerarquías: "las clasificaciones de expertos crean árboles, mientras que los sistemas de clasificación social crean montones de hojas".

Por último, Morville cree que en el futuro los sistemas de búsqueda tendrán una importancia todavía mayor, y recuerda que la Arquitectura de Información es una disciplina viva en la que hay que continuar experimentando, probando, etc.

Estándares y accesibilidad web (Jesús García, W3C oficina española)

Jesús García es miembro de la oficina española del W3C y desarrollador de TAW, una herramienta muy útil para el análisis de accesibilidad de páginas web. Empieza su exposición con una breve presentación del W3C, del que destaca que es un organismo neutro que ofrece especificaciones y directrices para estandarizar el uso de Internet, diversas herramientas, etc.

De la definición más extendida de accesibilidad ("la posibilidad de que un sitio o servicio web sea visitado y utilizado de forma satisfactoria por el mayor número de personas, independientemente de las limitaciones que éstas tengan o las derivadas de su entorno"), Jesús destaca que la accesibilidad pretende que el usuario quede satisfecho con el resultado de su visita, y que las limitaciones que pretende superar no son únicamente discapacidades propias del usuario, sino también las limitaciones del dispositivo (versiones anticuadas, pantallas pequeñas, etc.) o del entorno (ruidos, molestias, limitaciones de tiempo, etc.).

Jesús García, hablando de accesibilidad web

De las distintas directrices de W3C en cuanto a accesibilidad (WCAG, ATAG, UAAG), que van encaminadas a los distintos aspectos involucrados (respectivamente a contenidos, herramientas de autor, y agentes de usuario o navegadores), se centra en las primeras de ellas. Las directrices WCAG se dividen en tres niveles de prioridad: A, AA y AAA. De ellas, Jesús recomienda que se intenten cumplir como mínimo las AA.

La integración de la accesibilidad en un ciclo de vida web puede realizarse en cada una de sus tres grandes fases:

  • En el proceso de desarrollo y programación: utilizando elementos (plantillas HTML, portlets, etc.) que cumplan las directrices de accesibilidad.
  • En la integración con el sistema de publicación web: activando e implementando las restricciones de accesibilidad que permita el sistema.
  • En la explotación: controlando continuamente que los contenidos que se incorporan cumplan las directrices de accesibilidad.

Las ventajas de la accesibilidad son múltiples: acceso universal; mejor usabilidad; mejor posicionamiento en buscadores (un buen modo de convencer a los responsables del sitio web); mejor calidad; etc. En cuanto a los (falsos) mitos que suelen acompañar la accesibilidad web, Jesús menciona:

  • Accesibilidad = sólo para ciegos
     Falso, como se deduce de la propia definición que hemos visto anteriormente.
  • Accesible = feo
    Existen muchos sitios accesibles con una estética muy buena; se trata únicamente de utilizar las técnicas apropiadas.
  • Accesible = sin Flash ni scripts
    Se pueden utilizar, siempre que haya un verdadero motivo para hacerlo, y proporcionando versiones alternativas.
  • Accesible = más caro
    No necesariamente; a menudo, lo accesible es más sencillo y más barato.
  • Accesible = cambiar lenguaje de programación
    No es cierto; una interfaz accesible se puede generar desde prácticamente cualquier plataforma.
  • Accesible = plantillas accesibles
    No basta con eso; también hay que revisar los contenidos.
  • Accesible = validado con TAW u otras herramientas
    No es suficiente; las herramientas de validación automática pueden revisar determinadas directrices, pero hay muchos criterios que deben ser evaluados por expertos. Por ejemplo, una herramienta automática no podrá comprobar si la descripción textual alternativa de una imagen se corresponde realmente con la imagen o no.

En el turno de preguntas (y a una cuestión nuestra), Jesús está de acuerdo en que algunas empresas están cometiendo el error de comprobar únicamente la accesibilidad de la página inicial de su sitio web, cosa que ocurre sobre todo cuando la accesibilidad se plantea como una cuestión puntual "de buena imagen", y no un criterio fundamental del desarrollo web. Por otro lado, se muestra poco partidario de las versiones accesibles separadas de los sitios web, porque representan una cierta discriminación para esos usuarios, y porque en el caso de mantenimientos duplicados corren el riesgo de quedarse desfasadas; mejor una única versión, pero que sea accesible.

Retos de usabilidad y accesibilidad en la administración pública (Daniel Torres Burriel, Net2u)

Daniel Torres Buriel ha explicado cómo un sitio web de la administración pública debe ofrecer no sólo información de interés para los ciudadanos, sino también la posibilidad de acceder a servicios y realizar trámites de forma remota. Para ello es importante su accesibilidad, ya que entre sus usuarios habrá seguramente personas con discapacidades, de edad avanzada, y/o con dificultades específicas por su situación o entorno.

Ponencia de Daniel Torres Buriel

Los criterios de accesibilidad para los sitios de la administración son los mismos que se aplican a cualquier sitio web, pero con la peculiaridad de que están obligados por la ley (LSSICE) a ello. Esta ley no especifica qué nivel en concreto de accesibilidad deben alcanzar, pero sí que algunas normativas más específicas hacen referencia al nivel AA de las directrices WCAG.

Se pueden adoptar diferentes estrategias a la hora de definir las interfaces (técnicas de web1.0 o web2.0; formularios de aspecto formal o imitando a los formularios en papel, etc.). Lo importante es conseguir una verdadera "orientación al ciudadano".

De la web sintáctica a la web semántica (Lluís Codina, Universitat Pompeu Fabra)

Lluís codina ha realizado un análisis bastante personal y crítico de lo que se da en llamar web semántica. El objetivo formal de esa web es conseguir que sus contenidos sean mejor comprendidos e interpretados por los ordenadores, cosa que podría entenderse como Inteligencia Artificial aunque la propia web semántica parece querer alejarse de esa clasificación (quizá por cierto aura de promesas no cumplicadas que tiene la IA). Sin embargo, Lluís sugiere que la verdadera motivación para la web semántica sería la creación de una infraestructura de información que facilite el comercio electrónico, de la que la infraestructura para la gestión de conocimiento sería un "subproducto".

La web semántica está basada en RDF y en la utilización de metadatos semánticos y que puede verse (igual que ocurría con los sabios ciegos y el elefante) de diferente forma según cada punto de vista:

  • Para la Inteligencia Artificial, se define por el uso de ontologías.
  • Para los sistemas de bases de datos, está formada por XML más un conjunto de metadatos que organizan una información heterogénea.
  • Para el mundo de los servicios, se trata de ampliar la web para que sea algo más que un repositorio de información.

La gran contradicción de la web semántica es que los ordenadores son procesadores sintácticos, y que la semántica ("el significado") no surge de la sintaxis. De hecho, Lluís se muestra crítico con la W3C por ser demasiado optimistas cuando, de hecho, las aplicaciones de la web semántica en el mundo real son todavía muy pocas.

Hace un repaso rápido de las tecnologías e infraestructura concretos que están involucrados (XML, RDF, OWL, agentes de usuario)  para, a continuación, dar un vistazo general a la situación actual de la web semántica: el lenguaje XML esté presente en algunas suites ofimáticas, sistemas de bases de datos, editores de sitios web y navegadores; pero la web semántica está todavía ausente de la mayoría de motores de búsqueda y de contenidos web. Tiene cierta presencia en sitios web de organismos estandarizadores, en determinados repositorios, y en sitios específicos de la administración, científicos, etc.

El futuro pasa por una universalización del XML, el impulso de estándares, el redescubrimiento de cierto marcado semántico existente hace muchos años (etiquetas HTML para definiciones, acrónimos, etc.), y probablemente por la utilización de servidores de ontologías y por la aparición de nuevos sistemas de búsqueda.

Como crítica, comenta algunas paradojas de la situación actual:

  • Ahora es más complicado desarrollar páginas con marcado semántico, ya que son necesarios mayores conocimientos técnicos.
  • Se definen estándares independientemente de los organismos estandarizadores (como HTML5 o los microformatos).
  • No están claros los intereses de los actores, y los problemas prácticos se resuelven por otros medios (como ejemplo pone el PageRank de Google).

Y como líneas de actuación para el desarrollo de la web semántica, sugiere:

  • Dar soporte a los estándares.
  • Utilizar el marcado semántico que ya existe en X(HTML).
  • Dar preferencia a herramientas y aplicaciones que utilicen XML.
  • Estudiar en profundidad el uso de ontologías.

Ponencia de Lluís Codina (durante las matizaciones de Jesús García)

En el turno de preguntas, Jesús García (el ponente anterior de la oficina española de W3C) ofrece algunas opiniones encontradas con las de Lluís. Por ejemplo, afirma que sí hay bastantes ejemplos reales de web semántica que están funcionando, y que no es más difícil desarrollar ahora (en todo caso, depende de las herramientas que se utilicen).

Minería web para mejorar sitios web (Ricardo Baeza-Yates, Yahoo! Research)

El último ponente de la mañana habla de cómo estudiar los contenidos y comportamientos de los usuarios ante sitios web para mejorarlos. Menciona que el modelo clásico de sistemas de búsqueda no es suficiente para la web, ya que no tiene en cuenta el contexto en que se realiza, no tiene en cuenta las características de las personas que intervienen, y presupone que la colección de datos sobre la que se busca es estática.

Ricardo Baeza-Yates, de Yahoo! Research, en su charla

Algunas características reales de la web son que sus contenidos son en gran parte dinámicos (y por tanto, de algún modo, infinitos); que existen muchos contenidos ocultos o de difícil acceso; y que los contenidos semánticos son todavía poco abundantes y, en muchas ocasiones, incorrectos. Además hay una gran diversidad (cultural, geográfica, eduacional) y las consultas suelen ser muy cortas.

Ricardo hace una clasificación de las necesidades que motivan las búsquedas en la web:

  • de información (obtener información sobre algún tema en que esté interesado)
  • de navegación (cómo llegar a un sitio web o a una página determinada)
  • transaccionales (operar, comprar, realizar trámites, …)
  • ambiguas (no bien definidos: listas de enlaces; etc.)

En cuanto a los actores que intervienen, señala son tanto personas (usuarios, diseñadores) como software (buscadores, navegadores, herramientas); las personas son capaces de ver menos contenidos (sintaxis) que el software, pero sin embargo son capaces de extraer mayor información semántica. Por tanto, hay que diseñar para ambos grupos: para los ordenadores (haciendo los contenidos "encontrables", indexables por los buscadores) y para las personas (haciendo contenidos usables, con poco tiempo de descarga, agradables estéticamente, etc.).

En cuanto a la minería web en concreto, puede realizarse tanto del contenido y estructura de los sitios (para verificar su calidad) como del uso que realizan los usuarios (lo que proporciona información semántica implícita, gratis pero muy valiosa, mediante logs de servidores u otro tipo de técnicas). En todos esos casos son necesarios una serie de pasos: recolección de datos, limpieza o filtrado, almacenamiento y minería (análisis).

Ricardo comenta que una sesión típica de búsqueda es básicamente "binaria" ya que consiste en dos consultas de dos palabras, accediendo a dos páginas de resultados en las que se hacen dos clicks. Paradójicamente, los estudios muestran que no hay mucha correlación entre la frecuencia de los términos que se escriben y los que se buscan

3 comentarios sobre “En la jornada USID’07: ponencias”

  1. jordisan.net - Blog (artículos) » En el USID’07 de Barcelona dijo:

    […] El pasado lunes 23 de mayo estuve en Barcelona en la 4ª Jornada de Usabilidad en Sistemas de Información Digital (USID’07). Sobre las diferentes ponencias de la mañana y el seminario de la tarde he escrito en el blog del grupo SQUaC. […]

  2. Tata dijo:

    Dito isso, vocea ne3o acha que os estudos da web seme2ntica peadriom propiciar justamente essa evolue7e3o dos filtros? Bom, Daniel, vamos separar duas coisas.Tecnologia/Metodologia;Seres Humanos.Estamos saindo de:- um ambiente informacional, no qual as fontes humanas de informae7e3o eram limitadas pela distribuie7e3o de ideias, atrave9s de caros canais de distribuie7e3o;Para:- de um ambiente informacional, no qual as fontes humanas de informae7e3o ne3o se3o mais limitados pela distribuie7e3o de ideias, atrave9s de caros canais de distribuie7e3o;Nosso problema agora deixa de ser colocar a cara no mundo de antes para achar a cara que vocea colocou no mundo .Ne3o resta dfavida, que hoje do anonimato e0 fama o tempo e9 muito mais curto, milhares de exemplos chovem por aed.Assim, temos novos filtros alternativos que podemos optar por nos guiar no mar informacional. Escolhemos a partir de novos crite9rios, muito mais baseado em meritocracia do que no passado.Obviamente, cercado ainda de ve1rios fatores, tipo marketing pessoal, domednio do ambiente, condie7f5es social para se manter alternativa sem custos durante bastante tempo, etc Saedmos de um mundo nublado para um menos nublado.Ne3o e9 o paraedso, mas se vea melhor.A Web seme2ntica considero que e9 o aperfeie7oamento do que je1 estamos fazendo, atrave9s do uso de robf4s para melhorar as nossas recuperae7f5es.O Google foi um salto que2ntico nisso e vamos mais adiante, sempre na ideia de que e9 preciso gerar mais releve2ncia, sempre evitando que fore7as ne3o meritocre1ticas ganhem a guerra das buscas.Esse e9 o espedrito.Vocea ainda diz: tere1 que dar uma resposta o mais prf3ximo da verdade possedvel Bom, se vocea ler alguns textos do blog, recomendo este:Vere1s que o conceito da verdade/realidade e9 algo que temos que ter bastante cuidado .O que o Google pode nos levar ou uma busca similar a locais na Internet que correspondam o mais perto possedvel do que estamos procurando.E para isso ele vai precisar:a) saber cada vez mais sobre o seu perfil para tentar adivinhar , de fato, o que vocea costuma procurar para errar menos;b) monitorar a rede e deixar que as pessoas que tenham um perfil parecido com o seu te ajudem mesmo involuntariamente (do tipo o robf4 da Amazon que indica livros.);c) usar os crite9rios atuais, do tipo, pe1ginas relevantes, links para aquela pe1gina, releve2ncia do termo buscado, etc Veja que ne3o e9 a verdade , mas e9 tentar reduzir a taxa de erro entre a sua demanda informacional e o resultado de dada busca.Esse e9 um exercedcio que tambe9m vamos ter que interferir, ajustando os robf4s, para que possamos ajude1-los podemos, por exemplo, pedir mais oficial (sites com CNPJ, por exemplo) e alternativos (sem CNPJ), coisas do tipo.c9 isso,que dizes?abrae7os,Nepf4.PS Gustavo e Alberto, valeu a visita .

  3. loans dijo:

    Hi there, just became aωare of youг blog thrоugh Goοglе, anԁ found
    thаt it’s really informative. I’m gonna watch out fοr brusѕelѕ.

    I’ll be grateful if you continue this in future. Numerous people will be benefited from your writing. Cheers!

Deje un comentario

*
Teclea la palabra del recuadro, por favor, para comprobar que eres una persona y no un proceso de spam. << Anti-Spam Image



Blog del grupo SQUaC. ¿Conoces nuestros servicios? usabilidad y accesibilidad; usabilidad y accesibilidad; etc.

SQUaC, una web del ITI