Sumérgete en la Web 2.0

No hay día que no se aprenda algo nuevo o se vea algo viejo en la Web 2.0. Esta retroalimentación constante está produciendo unos cambios de hábito en los patrones de consumo y estilos de vida muy acelerados, que a su vez devienen en cambios de actitud ante determinados valores que muestran todo su poder cuando son ejecutados por más de 1.200 millones de humanos

Sumérgete en la Web 2.0

5 junio 2008

La Web es cada vez más una herramienta de trabajo, un lugar de aprendizaje, un sistema de disfrute y un medio de promoción personal. Da cabida a todo y genera miles de oportunidades a cada esfuerzo invertido. Da igual lo perentorio o remoto de nuestra búsqueda o interés: siempre hay algo, y si no lo hay, las herramientas de publicación cada vez más sencillas e intuitivas hacen que cualquiera pueda alumbrarlo y hacer que exista… para siempre.

 

A modo de introducción de lo que encontraréis en este Tema de Portada, aquí vamos a poner negro sobre blanco algunas nociones extraídas de un trabajo recopilatorio de Paul Anderson, de la Universidad de Leeds, que se pueden seguir en su blog Techlun.ch. En él se percibe que más importante que los aspectos tecnológicos de la Web 2.0 en sí son ciertas ideologías que subyacen en ella y que «versan sobre la construcción de algo mayor a un espacio de información global; algo que tiene un componente social más marcado, ya que en ésta, colaboración, contribución y comunidad son fundamentales», dice Anderson recogiendo los principios destacados por Tim O’Reilly en su escrito Qué es Web 2.0: Patrones de diseño y modelos de negocio para la siguiente generación de software. «Esto ha llevado a que algunos piensen que ante nuestros ojos se está construyendo un nuevo tejido social», afirma Anderson.

 

Ahondando un poco, se puede apreciar que la nueva Web se mueve en torno a seis grandes ideas: producción individual y contenido generado por el usuario; aprovechamiento del poder de las masas; datos en una escala «épica»; arquitectura de participación; efectos de la Red; y apertura.

 

Esto es muy punk

Al igual que en los 70, miles de chavales se dijeron que esto del rock lo podían hacer ellos y que no había que ser un dinosaurio para subirse a un escenario a tocar música o grabarla en plan ratonero con un cuatro pistas, hoy miles de muchachos se montan su página personal y la rellenan de contenido propio y picoteado de la Web. Blogs, wikis, redes sociales, metaversos… se lleva es el UGC, el contenido generado por el usuario.

 

Esto ha llevado a que muchos medios tradicionales de comunicación hayan entrado en barrena. Se encuentran sometidos a unas nuevas reglas de juego que están obligando a un cambio profundo de sus planteamientos (de negocio, de rentabilidad, de autoridad…): las antiguas audiencias pasivas receptoras se convierten en activas productoras de contenido que realizan, etiquetan y publican con rabiosa disponibilidad.

 

Esto también hay que verlo con perspectiva, pues, como bien señala Anderson, no es oro todo lo que reluce en la blogosfera: «Algunos consideran que el incremento en el número de personas que generan y manipulan información y artefactos digitales es muy positivo. Pero otros citan como ejemplo que de 13 millones de bitácoras en Blogger, 10 millones se encuentran inactivas y deducen por lo tanto que esta gran masa de blogs “muertos” constituye una poderosa razón para mantener el escepticismo».

 

Energías alternativas y renovables

Tim O’Reilly ya hablaba del «aprovechamiento de la inteligencia colectiva», mientras que el columnista del NYT James Surowiecki acuñaba lo de la «sabiduría de las multitudes». Estos dos conceptos se unen en la Web 2.0 para aportar uno nuevo de reingeniería llamado crowdsourcing por Jeff Howe, redactor de la revista Wired, según el cual, «personas actuando independientemente pero de manera colectiva generan una “masa” que tiene mayores posibilidades que un individuo, para producir una respuesta correcta, dentro de ciertas circunstancias», como resume Anderson.

 

Esto se refleja en el tremendo poder de convocatoria que tienen las acciones realizadas en Internet, con un efecto de contagio viral, y que se ven en acontecimientos como el azaroso desarrollo del recorrido de la antorcha olímpica ante las protestas de miles de personas por un país remoto que ahora tienen muy presente. A su vez, el «empoderamiento» del común usuario de Internet al usar sitios recurrentes de CDN (redes servidoras de contenido) especializadas, como Flikr o YouTube, posibilita que se pueda compartir más contenido y la generación y alimentación de segundos sitios web a su vez más especializados (o todo lo contrario), que al menos sirvan para colmar el prurito personal del reconocimiento ajeno con sólo la visita y un comentario. La Web 2.0 permite almacenar ingentes cantidades de material multimedia para luego poder ser desplegado por cualquiera mediante un simple código embebido en sus sitios web.

 

La extrema facilidad para etiquetar un artefacto de estos y luego poder ser encontrado entre la miriada de artefactos similares hace que Anderson se detenga en los conceptos similares pero radicalmente distintos de las taxonomías y las folksonomías. Y es que mientras las primeras obedecen al desarrollo de thesaurus bajo las reglas de las ciencias documentales (en donde uno no encuentra si no «adivina» las palabras claves correctas codificadas, según Thomas Vander Wal), las segundas exponen otra capacidad oculta de la Web 2.0, a saber: que «grupos de personas con vocabulario similar pueden funcionar como una especie de filtro humano de contenido para otros. Y por otro lado, como las etiquetas se generan una y otra vez, es posible descubrir en ellas tendencias de intereses emergentes». No hay más que irse a Technorati para saber las palabras que están siendo más buscadas en cada momento y conocer qué es noticia en ese instante a nivel planetario.

 

Arañas y purés de patata

«En esta era de la Información se generan y utilizan permanentemente una creciente cantidad de datos. Auque para algunos éstos nos están ahogando, en el universo de la Web 2.0 tanto los datos, como la cantidad de éstos, desempeñan un papel crucial, pues siempre hay quien los captura y convierte en ríos de información en los que se puede, por así decirlo, “pescar”», afirma Anderson.

 

Y el ejemplo más palmario es el buscador de Google, que es capaz de indexar cientos de petabytes (cada Pbyte es más de mil millones de Gbytes) en décimas de segundo y ofrecer unos resultados de búsqueda apabullantes. A poco que se le eche un poco de imaginación al manejo de tal cantidad de datos, se puede llegar a paroxismo de Amazon, que te endosa una lista de recomendados cada vez que te pones a buscar un libro o un disco, simplemente por la correlación de gustos entre los miles de individuos que han comprado determinado artículo y lo que han estado buscando previamente hasta dar con él.

 

La Web 2.0 pone a disposición de cualquiera una multitud de herramientas basadas en API públicas que permiten insertar cápsulas de código ajeno en el fuente del website para desplegar servicios recombinados que añadan valor a lo ofrecido. Son los mash-ups, que han hecho florecer una retahíla de sitios basados en mapas autoexplicativos, almacenamiento de fotografías y vídeos, compras recomendadas, metabúsquedas, organizador de viajes, envío de mensajes privados y microblogging, etc. Que casi el 40% de los nuevos sitios generados así correspondan a mapas, indica que la próxima Web 3.0 no sólo va a ser social como ésta, sino espacial y en 3D.

 

La ley de la libre concurrencia

La forma en que un servicio está diseñado puede mejorar y facilitar su empleo masivo por parte de los usuarios, y determinar su éxito o fracaso, incluso elevarlo a los altares del estándar de facto o categoría de killer app.

 

Sitios como Pandora o BitTorrent mejoran a medida que más personas los utilizan, y esta condición está implícita en su funcionamiento interno. Sin embargo, no es exactamente lo mismo lo que ocurre en las comunidades de código abierto, pese a sus condiciones de participación y apertura.

 

Esto puede conducir, según Anderson, «a que cualquier idea o sugerencia no sea ni buena ni mala en sí misma, ya que en la Web 2.0 es buena en la medida en que logre la aceptación y adopción por parte de los usuarios», independientemente de su valor extrínseco. Así, llegan a primar características como una curva de aprendizaje baja más que su utilidad, o el aspecto más que su funcionalidad. «Según esto, los sitios o las aplicaciones más exitosos parecen ser aquellos que estimulan la participación masiva y ofrecen una arquitectura (facilidad de uso, herramientas útiles, etc.) que tiene barreras bajas y que, por lo tanto, permite la participación. Como concepto de la Web 2.0, esta idea va más allá de abrir el código a los desarrolladores: busca abrir la producción de contenidos a todos los usuarios y ofrecer datos para que éstos los puedan reutilizar y combinar en los mash-ups». A menor esfuerzo, mayor concurrencia.

 

La larga cola larga

¿Una boa que se ha comido al elefante o un sombrero mal ensamblado? Para el pequeño Principito supuso buscarse un mundo alejado del común entendimiento «de los mayores», pero para un internauta cualquiera que ingresa en el universo Web supone el sometimiento al efecto de la larga cola que expresó Chris Anderson, editor de Wired: «La cantidad de ventas de los productos más populares se encuentran concentradas en la parte de la cabeza, mientras que la de los menos populares se distribuye a lo largo de la cola con frecuencias que se aproximan a cero».

 

En lo que respecta a Internet, esta herramienta se utiliza para mostrar que la mayoría del contenido de la Web lo proveen sitios web pequeños, a su vez alimentados por individuos, y fuera de toda ley económica. El caso de la Wikipedia es un excelente exponente del concepto, pues tiene una cantidad de entradas que es decenas de miles de veces mayor que las alcanzadas por cualquier enciclopedia impresa que se haya publicado bajo los parámetros de la rentabilidad.

 

Otro componente a tener en cuenta en la Web 2.0 es precisamente esta topología de nodos y enlaces, donde la distribución de muchos aspectos de la vida en la Web es desigual y sigue una ley de potencias. A pesar de que según se avanza hacia el extremo de la larga cola los intereses (o ventas reflejadas) disminuyen tendiendo a cero, cualquiera encuentra lo que le puede satisfacer de tal manera que la suma de tanto nicho económicamente ruinoso en el mundo de los átomos puede ser viable en el de los bytes.

 

Lo mío es tuyo… ¿y viceversa?

En la evolución de la Web 2.0 se ha visto el conflicto entre herramientas propietarias y otras de dominio público. Se puede dar la paradoja de que un servicio ofrecido de manera desinteresada por su autor, sea integrado a su vez en una aplicación más potente y explotada comercialmente por terceros. O sencillamente, lo que hace Google y que tanto provecho le reporta: no tiene datos sin procesar que no existan ya en la Web, pero los presenta de tal manera al agregarles procesos inteligentes que facilitan su uso.

 

Como decía O’Reilly en 2006, «la verdadera enseñanza es que el poder puede no estar realmente en los datos mismos, sino en el control al acceso a ellos».

 

Morir de éxito a causa del Efecto de Red

La Web es una red de nodos entrecruzados que está construida sobre las tecnologías y protocolos de Internet (TCP/IP, routers, servidores, etc.), que conforman la red de telecomunicaciones, a libre disposición hoy día por medio de 1.200 millones de terminales. Todo ello genera unas leyes físicas específicas que, con sus efectos de escala, atiende a ciertas leyes de potencia incluso física.

 

El primero de ellos es el llamado Efecto de Redes, y sirve para exponer el éxito fulminante de sitios como MySpace o Facebook. En estas redes sociales, una vez que el Efecto de Red comienza a tomar “momentum” (a conseguir velocidad de crucero) y las personas se dan cuenta del aumento de la popularidad de un servicio, el sitio que lo ofrece despega por lo general muy rápidamente y con crecimientos exponenciales, más que lineales.

 

Sin embargo, el efecto perjudicial de esto, para Paul Anderson, «es que muchas veces los usuarios se quedan “encerrados o bloqueados” en un producto o servicio. Uno de los ejemplos más citados es el de Office de Microsoft: a medida que más y más gente lo utiliza, porque otros ya lo hicieron y de esta manera pueden compartir documentos con un número cada vez mayor de personas, resulta cada vez más difícil cambiarse a otro producto, incluso mejor». Ya pasó con el Betamax, está pasando con el HD DVD, y volverá a pasar con cualquier otro artefacto tecnológico que plantee dicotomías irreconciliables.