sábado, 26 de mayo de 2007

30 Años de Historia, Bienvenida Internet 3.0: la "WEB SEMANTICA"

Web 3.0:
La nueva promesa de internet
Mientras las grandes empresas de softwares desarrollan programas que calcen con el concepto de web 2.0, el arribo de la “Web Semántica” pretende mejorar la forma que internet tiene de identificar los requerimientos de búsqueda, interpretando los criterios otorgados por el usuario.

Este mes se celebraron los 30 años de la creación de internet, pero la red de redes no deja espacio a la inmovilidad, y mientras todavía se decantan las ponencias de la “Web 2.0 Expo” -realizada en Estados Unidos a mediados de abril-, la super carretera de la información ya promete un nuevo giro: la Web 3.0.

Si la Web 2.0 puso en el centro al usuario, y le dio el poder sobre los contenidos publicados en internet a través de wikis, blogs, Really Simple Sindicate y tagging, la Web 3.0 quiere influir en los esquemas que tiene la red para identificar los requerimientos de los usuarios.

Hasta ahora, cuando un navegante requiere información debe ingresar criterios específicos de búsqueda, que arrojan resultados en los que aparece la palabra clave. Sin embargo, la “Web 3.0”, o “Web semántica”, promete que el sistema tendrá la capacidad de interpretar una oración y arrojar resultados específicos.

Por ejemplo, un hombre podría teclear: “busco un lugar para pasar las vacaciones con mi mujer y mis dos hijos de 5 y 2 años, que sea cálido y con un presupuesto máximo de 1000 dólares”. Y la “Web Semántica” le respondería con un paquete de vacaciones detallado, que le ahorraría al usuario horas frente al computador.

Hay algunas organizaciones que ya están desarrollando investigaciones orientadas a la “Web Semántica”. La Universidad de Washington, financiada por Google, trabaja en el proyecto KnowItAll, destinado a obtener y agregar información de usuarios y de productos.

Pero hay quienes argumentan que este sueño no se concretará. Y para sostener su incredulidad, afirman que quienes tienen la información no querrán compartirla o, simplemente, se producirán fenómenos como el “Spam Semántico”, que transformarán la idea en un proyecto inviable.

Pero la Web 2.0, siguiendo la línea del beta permanente, ya comienza a implmentar este sistema mediante “tagging”, Así, cuando los usuarios suben información a la web, clasifican el contenido mediante palabras claves que quedan como etiquetas (madre, Santiago de Chile, mar, Concepción), y de este modo los buscadores pueden identificar información que con las técnicas tradicionales hubiera sido imposible localizar.

¿Y la Web 2.0?

En la “Web 2.0 Expo”, el “padre” del término y organizador del evento, Tim O'Reilly, salió al paso de las múltiples dudas que han surgido sobre el concepto, y explicó las ideas centrales de éstas que se resumen en adquisición, gestión y control de la información, considerando a éstas características más importantes que otras asociadas al término, como las redes sociales o el dinamismo en el navegador, a las cuales calificó como propiedades pasajeras.

Según O’Reilly, la necesidad por el control de la información está dando paso a la creación de software para servicios, y al existir aún muchos datos por controlar, continúan apareciendo propuestas innovadoras, varias de las cuales se presentaron en la exposición realizada en California.

El organizador del evento destacó, entre todas las presentaciones, un servicio de búsqueda de personas denominado Spock, que reúne información de otros servicios, como Google, Wikipedia y blog, para crear perfiles con tags, los que pueden ser complementados por los usuarios con fotografías, más información y relación con otros usuarios.

Otra presentación muy comentada por los asistentes fue la de Amazon.com, que entre sus novedades cuenta con la habilitación de su infraestructura a través de los Amazon Web Services, que le ofrece a sus clientes la capacidad de almacenamiento, determinada por los precios. Adobe también expuso su nueva plataforma "Apollo", donde mostró un cliente para el escritorio, un player multimedia, un procesador de textos y un gestor de calendarios.

Google comentó la reciente adquisición de la empresa Tonic Systems, que le permitirá agregar una aplicación para presentaciones, que completa una propuesta orientada hacia la colaboración; y de DoubleClick para entregar las herramientas al mercado de la publicidad para que cuente con todas las opciones desde Google.

Otra plataforma que llamó poderosamente la atención fue la de Maplight.org la cual permite a los ciudadanos establecer las relaciones de políticos con sus fuentes de financiamiento, de manera de transparentar posibles influencias entre la procedencia de los recursos y las leyes que se aprueban. Sin embargo, por el momento sólo está circunscrita a California.

En dirección a profundizar los cambios en la WEb 2.0, Google promete hacer historia con un traductor idiomático. Así lo comentaba Gonzalo Alonso, el “hombre Google” para Latinoamérica, quien estuvo nuevamente en Chile hace unos días. Google, que actualmente es lejos el buscador más utilizado del mundo y que nació en el garage de un par de estudiantes universitarios, es hoy la marca más cara del mundo -por sobre empresas como General Electric, Microsoft y Coca Cola. En la visita, Alonso dio a conocer el proyecto que promete acabar con las fronteras idiomáticas y culturales, al menos en internet. Desde hace tiempo, funcionarios de Google trabajan en un traductor simultáneo de todos los idiomas y para todos los idiomas. La idea es, por ejemplo, que un norteamericano instalado en el living de su casa en New Jersey, pueda ver el canal Al Jazeera y entender en el contexto la noticia que se está transmitiendo. Lo mismo ocurrirá con quien desee ver Fox News, o nuestros programas en latinoamerícoa para ser vistos y entendidos desde cualquier punto del planeta.

¿Cómo? Según Alonso, existe una solución matemática de algoritmos que permite dar sentido y contexto literario a las frases, más allá de la traducción directa, eso sí es intercatividad idiomática.

Hasta el momento, y según el cálculo que hace Google, el 20% de la información disponible en el mundo (textos, fotos, audios y películas) están en Internet digitalizados para ser encontrados con el buscador. El otro 80%, está fuera. Esta misma proporción se mantendrá varios años más, porque aunque el gran objetivo de Google es digitalizar y organizar toda la información disponible en el mundo, pasarán varias generaciones antes que se logre. “Es tanta la cantidad de información disponible que también abruma a la gente que trabaja en Google”, dijo Alonso, consciente de que la meta es muy grande y agresiva, “seguramente demandará varias generaciones”.

Otra de las tareas que se ha autoimpuesto Google y que forman parte activa en la actual internet 2.0, es el llevar los libros a Internet. En Chile ya hay al menos tres editoriales dispuestas a digitalizar sus obras (Andrés Bello y Universitaria, entre ellos) y ya están en conversaciones con otras más y en lationoamérica de a poco las editoriales empiezan a perder sus prejuicios con la digitalización y el uso de información en carreteras cada vez más anchas empieza a ser una realidad.

Habrá que esperar los desafíos de esta internet 2.0 recargada mientras se siguen sucediendo los desarrollos de softwares y tecnologías que nos permitan soñar con una red de internet 3.0 que interprete lo más fielmente la sensibilidad y búsqueda de sus usuarios.

Bibliografía: Reportajes La Nación, Santiago de Chile, Sábado 19 de Mayo de 2007

==> Volver AQUÍ a página central del BLOG:"SIMPLEMENTE, NAOJ"


1 comentario:

Alejandro dijo...

Mish...bien interesante su blog hermano....algo alcancé a leer. Así que con más tiempo veré en profundidad sus contenidos

C U