50 cosas que hay que saber sobre mundo digital

206

Transcript of 50 cosas que hay que saber sobre mundo digital

Tom Chatfield

50 Cosas que hay que saber

sobre mundo digiTal

Traducción de mar Vidal

001-222 50 ideas digital.indd 3 22/02/2012 16:12:15

7introducción

Introducción¿Qué queremos decir con la palabra digital? En cierto sentido, sencilla-mente nos referimos a algo cuya existencia última es una serie de unos y ceros. Un objeto digital, a diferencia de las cosas analógicas del mun-do o incluso de los inicios de la informática, es un patrón binario.

A partir de este sencillo dato han surgido algunas de las fuerzas cultu-rales con mayor capacidad transformadora del siglo xx y, ahora, de la primera mitad del xxi. Puesto que tal vez la propiedad más destacable de los objetos digitales —ya representen sus ceros y sus unos a conjun-tos de palabras, música, imágenes, aplicaciones, buscadores de la red o bases de datos llenas de buena parte del almacén de conocimientos humanos— sea su compatibilidad entre ellos.

Por primera vez en la historia de la humanidad, es posible copiar y dis-tribuir de manera casi infinita palabras, sonidos, imágenes, ideas… y es posible acceder, adaptar y crear todo esto en los mismos dispositivos.

La historia de las ideas digitales se remonta a mucho antes del siglo xx. Es, en parte, la historia milenaria de las matemáticas, además de la his-toria de siglos de ingenioso diseño mecánico.

Sin embargo, aquí he optado por centrarme en el pasado más recien-te, y en aquellos aspectos del presente digital que parecen estar confi-gurando con más fuerza nuestro futuro. El resultado es que este libro trata y gira abrumadoramente alrededor de Internet.

Mientras escribo estas palabras, en 2011, unos dos mil millones de personas —casi un tercio de la humanidad— disponen de alguna for-ma de acceso a Internet. Gracias a la creciente universalización del acceso móvil a Internet, esta cifra seguirá creciendo durante la próxi-ma década, como lo hará el uso de esos servicios online que redefinen con regularidad buena parte de lo que significa ser miembro de la so-ciedad moderna.

Pero el crecimiento, la mejora y la libertad no son valores que deba-mos dar por seguros ni, desde luego, son privilegio de todos los ciuda-danos digitales del mundo. Internet es un instrumento tan potente cuando está en manos de los regímenes represivos y censuradores del mundo, como cuando está en manos de aquellos que la utilizan para dar libertad, educación, conexión y placer.

De manera parecida, es también terreno abonado para lo mejor y lo peor del ser humano. Y eso no hace más que reforzar la necesidad de comprender su historia, sus estructuras, su potencial y sus posibilida-des futuras.

001-222 50 ideas digital.indd 7 22/02/2012 16:12:15

8 Fundamentos

La historia de Internet data de la Guerra Fría y la red de comunicacio-nes desarrollada por EE.UU. tras el lanzamiento ruso del satélite Sputnik —el primer objeto hecho por el ser humano puesto en la órbi-ta de la Tierra— en 1957. Atónitos ante el logro de su rival, los esta-dounidenses dedicaron grandes esfuerzos a desarrollar nuevas tecnolo-gías de la comunicación. En concreto, el objetivo era desarrollar redes de comunicación que fueran capaces de funcionar incluso si un desas-tre destruía partes considerables de la propia red.

Estas primeras investigaciones culminaron con un informe de 1968 titulado Resource Sharing Computer Networks («redes informáti-cas de recursos compartidos»), que sentaba las bases de la primer red informática basada en un sistema llamado packet switching —en el que todos los datos transmitidos entre máquinas se desmenuzan en pequeños bloques o paquetes—. La primera red informática creada mediante esta tecnología se llamó ARPANET (por Advanced Re-search Projects Agency Network), y se puso en funcionamiento en 1969, inicialmente conectando cuatro sitios de la Universidad de Ca-lifornia en Los Ángeles, el Stanford Research Institute, la Universi-dad de California en Santa Barbara y la Universidad de Utah.

ARPANET creció con rapidez. En 1970 ya había alcanzado la costa este de Estados Unidos. El primer correo electrónico de todos los tiem-pos se mandó a través de esta red en 1971. En septiembre de 1973,

01  InternetConviene pensar en Internet no tanto como en un medio tecnológico como en una infraestructura: un conjunto de hardware y software interconectados —desde los cables submarinos y telefónicos hasta los ordenadores de sobremesa y los teléfonos móviles— y que comunica una parte creciente de todos los dispositivos informáticos del mundo. Muchos servicios operan vía Internet —incluida, y tal vez la más famosa, la World Wide Web—, pero el propio Internet los precede. Es la inmensa red física dentro de la cual existe buena parte de la moderna cultura digital.

cronología1969 1974 1982 1985 1990 1991El Departamento de Defensa de EE.UU. crea ARPANET

Primera utilización de la palabra «Internet»

ARPANET cambia al Transmision Control Protocol (TCP) y al Internet Protocol (IP)

La US National Science Foundation encarga su red

Primer acceso comercial a Internet vía marcación telefónica

Se inventa la World Wide Web

001-222 50 ideas digital.indd 8 22/02/2012 16:12:16

9 internet

40 máquinas por todo EE.UU. estaban conecta-das a la red, y el primer método para transferir archivos de ordenador entre ellas —conocido sencillamente como «Protocolo de Transferencia de Archivos» o File Transfer Protocol (FTP)— ya se había implementado. En diciembre de 1974, se utilizó por primera vez la palabra Internet en un artículo de Vinton Cerf, Yogen Dalal y Carl Sunshine, como abreviatura de la palabra inter-networking (algo así como «trabajar interconectados»). Se refería a lo que se estaba convirtiendo en una idea revolucionaria: una metarred global de comunicaciones, formada a base de la combinación de múl-tiples redes de máquinas que compartían un mismo protocolo para compartir paquetes de información. Esta idea de la «red de redes» tal vez sea la idea central que hay detrás del moderno Internet.

Protocolos El artículo de Cerf, Dalal y Sunshine (1974) formula-ba dos ideas que resultarían clave para el futuro de Internet: «Internet Protocol» (IP) y «Transmission Control Protocol» (TCP). Entre es-

Desde 1981, todo aparato informático conectado a Internet dispone de una dirección numérica única asignada al mismo a través de la cuarta versión del sistema de Protocolo de Internet en el que se basa la red: se abrevia como IPv4. Sin embargo, actualmente, el enorme incremento de recursos basados en Internet ha provocado que el IPv4 se haya quedado sin números. El IPv4 «solo» es capaz de albergar 4.294.967.296 direcciones de Internet únicas, el tamaño máximo de un

número binario de 32 dígitos. La sexta y más reciente versión de Protocolo de Internet se basa en números binarios de 128 dígitos, lo cual permite más de mil millones de veces más de direcciones que la versión cuatro. Cambiar Internet hacia un nuevo protocolo ha representado un reto enorme, en especial para el hardware físico más antiguo, y se ha tenido que ejecutar y probar en varias etapas. En la semana del 3 de febrero de 2011 se entregó el último bloque de direcciones disponibles.

IPv6

«Internet se está convirtiendo en la plaza del pueblo de la aldea global del mañana.»billgates

cronología1969 1974 1982 1985 1990 1991El Departamento de Defensa de EE.UU. crea ARPANET

Primera utilización de la palabra «Internet»

ARPANET cambia al Transmision Control Protocol (TCP) y al Internet Protocol (IP)

La US National Science Foundation encarga su red

Primer acceso comercial a Internet vía marcación telefónica

Se inventa la World Wide Web

001-222 50 ideas digital.indd 9 22/02/2012 16:12:16

10 Fundamentos

tos dos protocolos explicaban la manera precisa en que los datos han de clasificarse en paquetes y ser enviados entre ordenadores. Cual-quier ordenador que utilizara estos métodos —normalmente abrevia-dos como TCP/IP— debería, en teoría, ser capaz de comunicarse con cualquier otro ordenador que también lo hiciera. El protocolo de In-ternet definió la ruta por la que habían de viajar los datos para conec-tar ordenadores de lugares concretos —o «direcciones IP», como se las acabaría conociendo—, mientras que el protocolo de control de transmisión garantizaba que los paquetes de datos se mandaran de una manera fiable y ordenada.

Durante la década siguiente se hicieron muchos esfuerzos para asegu-rar que fuera posible para el máximo número distinto de ordenadores conectarse entre ellos mediante el TCP/IP. Eso culminó en 1983, con el paso de todos los ordenadores que utilizaban el sistema ARPANET al sistema TCP/IP, reemplazando el viejo sistema de packet swit-ching que habían utilizado anteriormente. En 1985, la National Scien-ce Foundation de EE.UU. encargó su propia red de ordenadores, dise-ñada para que funcionara en las universidades estadounidenses que usaban el sistema TCP/IP, y en 1988 esta red se abrió, lo cual permi-tió a otras redes informáticas emergentes conectarse a ella. El proto-colo TCP/IP facilitó la conexión entre distintos tipos de máquinas y redes, y al final de la década de 1980 vimos el lanzamiento de los pri-meros Proveedores de Servicios de Internet (o ISP) comerciales, que ofrecían el acceso a Internet a empresas y clientes privados.

Crecimiento A principios de la década de 1990, amplias partes del mundo —encabezadas por universidades e instituciones de inves-tigación— empezaron a utilizar de manera independiente redes infor-máticas basadas en protocolos TCP/IP, lo cual facilitó muchísimo que estas redes se conectaran entre ellas, pudieran compartir archivos y datos y establecer un sistema de correo electrónico. Sin embargo, no sería hasta la invención de la World Wide Web, en 1989, por parte de Tim Berners-Lee, cuando las herramientas que era posible utilizar vía Internet empezaron a ser realmente accesibles tanto para los usua-rios informáticos corrientes como para académicos e investigadores. A lo largo de la década de 1990, el número de personas conectadas por Internet se iba doblando cada año de promedio, un ritmo de cre-cimiento que durante la siguiente década solo se atenuó ligeramente.

«Internet es el primer sistema creado por el ser humano que la humanidad no

entiende, el mayor experimento en anarquía que jamás hemos tenido.»

ericschmidt

001-222 50 ideas digital.indd 10 22/02/2012 16:12:16

11 internet

Se calcula que a finales de 2010, aproximadamente dos mil millones de personas, casi un tercio de la humanidad, estaban conectadas.

La World Wide Web se explica con más detalle en el capítulo siguien-te. Con su llegada y con la rápida expansión de la tecnología de las páginas web y los buscadores, Internet empezó a desempeñar el papel que actualmente la mayoría de gente reconoce: el de una red real-mente global que conecta a las personas y las naciones a través de una proliferación cada vez más grande de aparatos informáticos. Pero su futuro no puede considerarse garantizado. Internet se apoya en la co-operación continuada entre naciones e individuos, y también en la creación y mejora sostenidas del hardware —es decir, los cables y los servidores informáticos— capaz de soportar las cantidades cada vez mayores de información que se intercambian por la red, bajo forma no solo de palabras, sino de vídeos, de imágenes, de sonidos y de apli-caciones complejas.

La idea en síntesis:Internet lo conecta todo

Establecida en Estados Unidos en 1998, la Internet Corporation for Assigned Names and Numbers (ICANN) es la única y más importante organización para la regulación del futuro de Internet. Su principal responsabilidad es gestionar los espacios de las direcciones de Protocolo de Internet; es decir, asegurar la adjudicación y gestión de una dirección única para cada página (sitio) y servicio que se sirve de Internet. También designa bloques de direcciones y lo que se conoce como «dominios de alto nivel» (top level domains)

a distintas partes del mundo: por ejemplo, asignar las páginas web que acaban en «uk» a las páginas con sede en Gran Bretaña, en «au» a páginas de Australia, en «com» a operaciones comerciales, etc. La ICANN es una organización sin afán de lucro y ha de equilibrar las necesidades de distintas partes del globo al tiempo que intenta mantener una estructura de Internet coherente y cohesionada: un desafío considerable teniendo en cuenta la naturaleza cada vez más internacional de la red.

Gobierno en la red

001-222 50 ideas digital.indd 11 22/02/2012 16:12:16

12 Fundamentos

La idea de la web surgió en 1989, en un artículo de investigación de Tim Berners-Lee, ingeniero y científico informático británico. En él, Berners-Lee esbozaba su concepto de un «sistema universal de infor-mación interrelacionada» que «permitiría encontrar el espacio para cualquier información o referencia que uno considerara importante». Ese sistema operaría a través de la estructura establecida de Internet... pero las palabras clave en el plan de Berners-Lee eran universal e inte-rrelacionada. Cualquiera tenía que ser capaz de crear fuentes de infor-mación en su propio sistema, y estas fuentes tenían que ser creadas de tal manera que a cualquiera le fuera posible encontrarlas, utilizarlas y moverse perfectamente entre ellas.

En diciembre de 1990, Berners-Lee —con la ayuda de su colega belga, Robert Cailliau— encajó todos los elementos necesarios para una con-creción plenamente funcional de su propuesta en su lugar de trabajo, el Instituto de Investigación de Física CERN de Ginebra, en Suiza. Tres componentes esenciales estaban involucrados: la primera «página» mundial de información digital (para que hubiera algo que mirar); el primer «buscador», que permitía a la gente visualizar la información en esta página desde sus terminales de ordenador; y el primer servidor de la

02  La World Wide Web

Aunque mucha gente los considera y trata como sinónimos, la World Wide Web no es lo mismo que Internet. La web es solo uno de una serie de servicios que ser sirven de Internet. Otros incluyen cualquier cosa, desde compartir archivos y juegos online hasta el vídeochat o el e-mail. Sin embargo, la web tal vez sea el servicio primero y principal dentro de la cultura digital moderna, puesto que la World Wide Web se basa en el principio de que cualquiera que disponga de conexión a Internet ha de ser capaz de circular libremente entre páginas web, y de crear la suya propia si lo desea. En este sentido, es tanto un conjunto de principios como una tecnología.

cronología1989 1990 1991 1994Tim Berners-Lee propone la web por primera vez

Primera versión de la web en funcionamiento

La web pasa a disposición pública a través de Internet

Se funda el Word Wide Web Consortium

001-222 50 ideas digital.indd 12 22/02/2012 16:12:16

13 laWorldWideWeb

red, el ordenador en el que se «alo-jaba» la página web. El ordenador host (o «anfitrión») funcionaba un poco como un tablón de anuncios: en él se colgaba la página de infor-mación y luego, cualquiera con un buscador podía simplemente conec-tarse a ese ordenador y ver la página colgada en el tablón. Y todas las per-sonas que dispusieran de buscador podían consultarla al mismo tiempo: la página en sí sencillamente perma-necía en el host, a la vista de todos.

Actualmente, hasta las estimaciones más conservadoras sitúan la cifra de páginas web existentes por encima del billón, buena parte de las cuales resultan imposibles de localizar —a pesar de la inmensa potencia de los buscadores modernos—, pero hay miles de millones de páginas en uso y accesibles para todo aquel que dis-ponga de un ordenador y un navegador de Internet. Es una prueba impresionante de la potencia de la visión original de Berners-Lee y de los esfuerzos decididos de la empresa que fundó en 1994, el Word Wide Web Consortium, con el fin de mantener unos criterios comu-nes y abiertos para el conjunto de la web.

Hipertexto El HTML o, para dar su nombre completo, el Hyper Text Markup Language, es el conjunto de reglas que subyace en cada página de la World Wide Web. Como su nombre sugiere, es como una versión «hiper» o realzada de la escritura ordinaria. Es por esto que todas las direcciones web actuales empiezan por las letras http: significan Hy-perText Transfer Protocol («Protocolo de Transferencia de HiperTex-to») y se refieren al sistema que permite el intercambio entre ordenado-res de la información en forma de hipertexto. Las palabras impresas en las páginas de un libro son texto en el sentido ordinario: meras palabras sobre papel. Se convierten en hipertexto cuando este texto ordinario es

El viejo chiste sobre a quién debió de llamar el primer propietario de un teléfono no es aplicable a la web, pero se le acerca. De manera parecida, la primera página web que existió —creada en diciembre de 1990 por Tim Berners-Lee— consistió simplemente en unas cuantas páginas de texto enlazado que describía lo que era la World Wide Web. Y tenía lo que también fue la primera dirección web: http://nxoc01.cern.ch/hypertext/www/theproject/html. La World Wide Web, explicaba, es algo que «fusiona las técnicas de recuperación de información y de hipertexto para configurar un sistema global de información fácil pero potente». Y actualmente todavía puede verse online una versión de la página original a través del sitio actual del World Wide Web, www.w3.org.

La primera página web

cronología1989 1990 1991 1994Tim Berners-Lee propone la web por primera vez

Primera versión de la web en funcionamiento

La web pasa a disposición pública a través de Internet

Se funda el Word Wide Web Consortium

001-222 50 ideas digital.indd 13 22/02/2012 16:12:16

14 Fundamentos

codificado con el simple añadido de una pequeña cantidad de etiquetas o anotaciones (tags) incrustadas en la versión electrónica del texto. Cada etiqueta contiene una información especial, adicional, sobre un frag-mento del texto, que indica a cualquier programa de navegación cómo ha de presentarlo, con qué otras páginas de la red ha de conectarlo, etc.

En la primera versión del HTML había solo veinte maneras básicas de etiquetar o anotar la información de una página. Tal vez la idea más crucial de todas era que a cada página había que asignarle su propia y única «dirección de base», y que entonces sería posible especificar las direcciones de otras páginas de una manera «relacionada con la direc-ción del documento presente». Lo que eso significaba en la práctica era que una simple etiqueta se podía utilizar para conectar cualquier página con cualquier otra, indicándole al navegador que creara un enlace (link) entre la dirección única de una página y otra. La mayo-ría de personas que actualmente utilizan la red no verán nunca una única línea de HTML real; pero en su versión última, sigue siendo lo que sustenta toda página web que hay por ahí.

Navegadores Los navegadores son los programas que los usua-rios utilizan para acceder a la red. Hoy día hay disponibles multitud de navegadores distintos, incluidas marcas tan famosas como Internet Explorer, Firefox, Chrome y Safari. Parte del genio de la red radica en que cualquier navegador ha de ser capaz de concederle a cualquier usuario el acceso a prácticamente cualquier página web existente.

Los navegadores permiten a los usuarios navegar a su antojo entre dis-tintos sitios y páginas web, ya sea siguiendo los enlaces que hay entre

A sir Tim Berners-Lee —ordenado caballero en 2004 por sus proezas— se le venera hoy en día como «padre de la red». Sin embargo, tal vez lo que resulta más destacable que su ingenuidad es su preservación de los principios de universalidad de la libertad plasmados en su creación. Nacido en Londres en junio de 1955, estudió Física en Oxford antes de empezar a trabajar en telecomunicaciones, ingeniería de la programación y diseño técnico. En 1984 entró como investigador en el CERN de Suiza, donde en 1989

concibió la red. Una vez lanzada su creación, en vez de lucrarse restringiendo su uso, en 1994 fundó el World Wide Web Consortium, una organización dedicada a preservar la apertura y la conservación de los criterios universales de la red. Hoy día sigue siendo uno de los grandes defensores mundiales de la utilización abierta y transparente de los datos, y un defensor de mantener la evolución de la red a lo largo del siglo xxi como una fuerza todavía más potente de conexión y creación de conocimiento.

Tim Berners-Lee: una vida digital

001-222 50 ideas digital.indd 14 22/02/2012 16:12:16

15 laWorldWideWeb

ellos o entrando en una dirección específica. El primero de los navegadores que existió se llamó inicialmente World Wide Web —más tarde rebautizado como Nexos— y permitía a los usuarios poco más que visualizar distintas páginas web y moverse entre ellas. Con los años, a los navegadores se les han ido añadien-do una gran cantidad de funciones más sofisti-cadas, permitiendo el logro de efectos cada vez más complicados a través de los sitios web: desde el uso de enrevesadas hojas de estilo hasta, actualmente, el streaming de sonidos y vídeos dentro de las páginas web, y hasta el funcionamiento de elaboradas aplicaciones interactivas, como juegos, totalmente dentro de la ventana de un navegador web.

Servidores Cualquiera que disponga de una conexión a Internet y un navegador puede ver páginas web, pero, para que funcionen, el código con el que están hechas ha de almacenarse en alguna parte de un ordenador. Los ordenadores en los que funcionan las páginas web se conocen como servidores y son responsables del envío del conteni-do de una página web, a través de Internet, hasta cualquiera que quie-ra acceder a ella a través de un navegador.

Lo que eso significa es que el servidor, literalmente, «sirve» una copia de la página web a cada usuario cuyo navegador se programa con la dirección propia de esta página. Si dos personas acceden al mismo tiempo, a cada una se le entrega sencillamente una copia de la página para que la vea en su navegador. Lo mismo es cierto si los usuarios son cien, mil o hasta millones de personas. Siempre y cuando, por supues-to, el servidor sea lo bastante potente como para satisfacer la deman-da. Cuanto más sofisticada es una página, o cuanta más gente quiera acceder a ella, más potente ha de ser el servidor que la aloja. En el caso de las páginas más visitadas del mundo, como la página de bien-venida de Google, por ejemplo, los servidores requeridos para dar ac-ceso a la página a todo el mundo y para procesar las consultas que te-clean en ella van hasta miles y miles de máquinas, que atienden a cientos de millones de peticiones de usuarios.

La idea en síntesis:la red es abierta  

y universal

«Cualquiera que haya perdido la noción del tiempo mientras utilizaba un ordenador conoce la propensión a soñar, el impulso de convertir los sueños en realidad y la tendencia a saltarse el almuerzo.»timberners-lee

001-222 50 ideas digital.indd 15 22/02/2012 16:12:16

16 Fundamentos

Los primeros proveedores del servicio de Internet empezaron a aparecer a finales de la década de 1980, pero no ofrecían acceso a lo que hoy con-sideramos «Internet», ni siquiera a su primera encarnación total. Los ancestros directos del moderno Internet —NSFNET y ARPANET— estaban en aquellos momentos reservados al uso de las instituciones de educación superior y a los funcionarios de defensa. Así, algunas empre-sas con sede en EE.UU. como UUNET (fundada en 1987) y Netcom (fundada en 1988) empezaron a ofrecer a sus clientes de pago el acceso a sistemas basados en la red más informal UUCP, o Unix-to-Unix Copy, un sistema que permitía a los ordenadores en red llamarse entre ellos in-dividualmente e intercambiar información, como noticias y correo.

En aquel momento la World Wide Web ni siquiera existía, lo cual significaba que pagar por acceder a Internet permitía a los usuarios básicamente enviar y recibir e-mails y participar en foros de discusión como Usenet, una influyente comunidad primeriza de palabras e ideas digitales. Hasta este punto, la cultura digital ajena a las grandes insti-tuciones se había apoyado en individuos con ordenadores que tenían

03  Provisión del servicio de Internet

Los Proveedores del Servicio de Internet (ISP) son la columna vertebral de la cultura digital, que facilita a las personas y las empresas el acceso a Internet a cambio de una tarifa. En los inicios de Internet, antes de la World Wide Web, fueron las ISP las que llevaron al público general una tecnología todavía nueva y cuyo uso parecía desalentador. Incluso después del despegue de la mucho más accesible World Wide Web, las ISP siguieron siendo una fuerza dominante que controlaba el correo electrónico y las experiencias virtuales de millones de usuarios de Internet. Hoy día, su papel resulta menos visible, pero siguen siendo una parte integral de gran cantidad del acceso mundial a los servicios online... y partes poderosas en cualquier debate sobre la dirección futura de la red.

cronología1987 1992 1996 2002Acceso público a Internet limitado y de pago

Primer acceso total y de pago a la red Nace el término «banda ancha» AOL alcanza su cota máxima de suscriptores

001-222 50 ideas digital.indd 16 22/02/2012 16:12:16

17 provisióndelserviciodeinternet

acceso a los llamados Bulletin Board Systems o BBS mediante la llama-da directa a través de módems o de líneas telefónicas ordinarias. El nú-mero de usuarios de los BBS siguió aumentando hasta mediados de la década de 1990, cuando la combinación de un creciente acceso a Inter-net y el crecimiento de la World Wide Web finalmente los superó.

La oferta del acceso comercial a la UUNET a finales de la década de 1980 fue una buena fuente de ingresos para la expansión de los sistemas y capacidades de red, pero la apertura comercial de los sistemas MSF-NET y ARPANET continuó rodeada de un intenso debate. Finalmen-te, en 1992, el Congreso de Estados Unidos votó en favor de permitir las operaciones comerciales en la MSFNET. Eso marcó el inicio del acceso comercial al «verdadero» niño Internet, que hasta entonces ha-bía sido en buena parte un instrumento académico sin afán de lucro.

Primer acceso completo Desde 1992, los ISP pudieron ofrecer el acceso mediante marcación telefónica a todo el Internet que en-

Uno de los aspectos más confusos y potencialmente controvertidos del acceso a Internet es la velocidad: ¿con qué velocidad nos permitirá la conexión provista por una ISP cargar y descargar datos?; ¿cómo se comportará frente al aumento de circulación online durante las horas de máxima demanda? En Gran Bretaña, por ejemplo, la banda ancha ADSL —que se ofrece a través de la red telefónica— tiene una velocidad máxima teórica de descarga de 8 Mbps. Pero esto se consigue raramente, siendo más frecuentes las velocidades que oscilan entre 4 y hasta 1 Mbps. Algunos países, como Corea del Sur, han hecho fuertes inversiones en cableado especial que ofrece una red nacional de banda

ancha mucho más rápida que otros. Sus ISP son capaces de ofrecer una media de unos 12 Mbps, comparado con los 8 Mbps de Japón y la media británica de solo 4 Mbps. Se espera que durante la próxima década las velocidades aumenten de manera espectacular, pero que también lo hagan las cantidades de datos transmitidos por el usuario medio de Internet, gracias a la creciente cantidad y calidad del vídeo transmitido online. Para satisfacer la demanda y mantener las velocidades, muchos ISP creen que es necesaria una fuerte inversión de los gobiernos de todo el mundo paralela a los esfuerzos del sector comercial para mantener el ritmo de crecimiento.

¿Qué velocidad?

cronología1987 1992 1996 2002Acceso público a Internet limitado y de pago

Primer acceso total y de pago a la red Nace el término «banda ancha» AOL alcanza su cota máxima de suscriptores

001-222 50 ideas digital.indd 17 22/02/2012 16:12:17

18 Fundamentos

tonces existía. El acceso por marcación telefónica (dial-up access) se llama así porque implica —parecido en buena parte al Bulletin Board System— la conexión de un ordenador a Internet mediante una línea de teléfono ordinaria, conectada por un lado al módem del ordenador y por el otro a un módem receptor adjunto al ordenador del ISP.

La primera empresa que ofreció un servicio de pleno acceso a Internet de marcación telefónica fue The World, que lo estableció a partir de agosto de 1992, después de ofrecer el mismo tipo de acceso a la UUNET desde 1989. Otras empresas le siguieron en rápida sucesión, y con el lanzamiento en 1993 del primer navegador gráfico para la World Wide Web, el crecimiento global online empezó a despegar.

En 1996, la provisión del servicio de Internet vio la aparición de un nuevo término, «banda ancha», que surgió de manera prominente en la campaña publicitaria de la ISP estadounidense MediaOne. El tér-mino no tiene una equivalencia técnica precisa, pero se utilizó para mostrar las tarifas de acceso rápido a Internet que MediaOne era ca-paz de ofrecer a través de su servicio de módem por cable: módems que no operaban a través de los cables corrientes de teléfono, sino por la infraestructura de cableado de televisión, lo que permitía una velo-cidad de acceso mucho más rápida. Los módems por cable habían te-nido un uso limitado desde principios de la década de 1990, pero no fue hasta la segunda mitad de la década cuando la noción de acceso por banda ancha empezó a despegar y a erigirse como un sector prin-cipal de mercado de los ISP.

America Online o AOL fue una de las historias de éxito más impresionantes de los primeros tiempos del Internet comercial. Desde finales de la década de 1980, AOL ofreció uno de los primeros y más atractivos servicios de Internet de lo que era un «jardín vallado». Por una tarifa horaria —que en 1996 se convirtió en tarifa mensual—, los usuarios tenían acceso a chats, juegos, correo electrónico de la propia red de la empresa, a un servicio de mensajería instantánea y a otros contenidos propios. El servicio era extremamente fácil de usar y estaba muy bien comercializado, y a lo largo de la década de 1990 ganó

una enorme cantidad de usuarios nuevos, hasta alcanzar la cota de 35 millones de usuarios en 2002. Pero el modelo de una provisión de Internet segura y controlada se hundió en la década de 2000, frente a la expansión continuada de la red y a la proliferación de servicios virtuales gratuitos. A principios de 2011, AOL ya solo contaba con unos cuatro millones de suscriptores, y se apresuraba a reinventarse como negocio basado en los contenidos, con adquisiciones que incluyen el blog más leído del mundo, el Huffington Post, por más de 300 millones de dólares.

America Online

001-222 50 ideas digital.indd 18 22/02/2012 16:12:17

19 provisióndelserviciodeinternet

Llega el ADSL Hacia finales de la década de 1990, una segunda tecnología de banda ancha empezó a convertirse en una opción accesi-ble para los usuarios domésticos: el ADSL, iniciales de Asymmetric Digital Subscriber Line. La tecnología existía desde finales de la déca-da de 1980, pero había sido extremamente cara porque implicaba el uso de una forma compleja de procesado de la señal digital para enviar información a través de un cable telefónico ordinario a una velocidad mucho mayor de la que era posible a través de una conexión por mar-cación telefónica.

Todo esto ha significado una transición gradual a la hora de establecer precios para el acceso a Internet, desde el pago por minuto en el mé- todo de marcación hasta el pago de una tarifa plana mensual para un acceso de banda ancha disponible permanentemente. Los propios ISP pagan el acceso a Internet que luego ofrecen a sus clientes —normalmente, de un ISP más gran-de, con acceso a sectores más amplios de Internet. Finalmente, este dinero sirve para financiar la estructura del propio Internet, repartido entre las numerosas compañías privadas que mantienen las líneas de alta capacidad que a veces se conocen como «columnas vertebrales» de Internet, además de las redes nacionales, los consorcios y las co-nexiones que forman la enorme extensión moderna de Internet.

Actualmente se están extendiendo formas de conectarse a Internet más potentes y al mismo tiempo más variadas: desde los cables de alta velo-cidad hasta formas más avanzadas de codificación de tipo ADSL, ade-más del acceso de alta velocidad sin cables. Para los ISP, responsables de mantener el acceso fiable a Internet de un número de usuarios en rápido crecimiento, cada uno de los cuales también usa cada vez más servicios de transmisión de datos, el futuro depara una serie de retos re-lacionados con el mantenimiento tanto de los beneficios como de la calidad del servicio frente a su crecimiento. Algunos están poniendo a prueba nuevos modelos de negocio apoyados en la publicidad, mientras que otros intentan ganar dinero cobrando por priorizar ciertos tipos de tráfico... un tema clave del debate sobre la «neutralidad en la red».

La idea en síntesis:aquellos que controlan 

el acceso a Internet tienen un poder enorme

«El acceso a Internet en sí mismo se ha convertido en un derecho humano.»michaell.best

001-222 50 ideas digital.indd 19 22/02/2012 16:12:17

20 Fundamentos

En los primeros tiempos de la informática, las máquinas eran enormes y extremamente caras, y era habitual que un «ordenador central» (main-frame) tuviera una serie de terminales conectadas al él, a través de las cuales varias personas pudieran utilizar el principal. En 1961 se empezó a utilizar un modelo temprano de ordenador central conocido como IBM 7090, en el Massachusetts Institute of Technology (MIT). Este ordenador tenía lo que entonces se consideraba un sistema ope-rativo radical, que permitía a varios usuarios conectarse a él desde dis-tintos terminales y transferir archivos que estaban usando al disco central del ordenador.

Poco a poco se fue haciendo evidente que esta capacidad de transferir archivos a un disco central significaba que este sistema operativo, de hecho, podía utilizarse como un buzón. Podías, por ejemplo, escribir un mensaje en un archivo y luego cargarlo al disco central del ordena-dor con un nombre de archivo como «PARA TOM». Esto equivalía a enviar una carta dirigida a una persona concreta. Entonces, Tom po-día conectarse desde un terminal distinto, buscar en el disco central del ordenador, localizar el archivo «PARA TOM» y, gracias a su nom-bre, abrirlo y leer el mensaje que le habías dejado.

En 1965, este sistema ya estaba lo bastante extendido como para que se creara una función especial de «correo» en el sistema operativo. Eso automatizaba de manera efectiva el proceso de correo establecido, lo

04  E-mailEl correo electrónico —el envío de mensajes de texto entre ordenadores— fue una de las primeras y más fundamentales de todas las ideas digitales. De hecho, es anterior a la existencia tanto de Internet como de la World Wide Web, puesto que data de casi las primeras ocasiones en las que se conectaron dos ordenadores entre sí. De hecho, tan pronto como fue posible la idea de conectar terminales de ordenador, las personas se dispusieron a hacer algo que durante milenios ha hecho avanzar a las civilizaciones: comunicarse.

cronología1965 1971 1972 1995Se introduce el comando «correo» Primera utilización del símbolo @ Primer programa de e-mail Primer correo a través de la web

001-222 50 ideas digital.indd 20 22/02/2012 16:12:17

21 e-mail

cual significaba que cualquier usuario podía ahora mandar un mensaje a cualquier otro usuario concreto, y el archivo que contenía el mensaje sería colocado en una ubicación de «buzón» específica del disco princi-pal. Lo único que había que saber eran los números que identificaban a cada usuario en particular para poderles mandar un mensaje. Estos se-rían indicados la próxima vez que se conectaran a una terminal con el mensaje «Tienes correo».

La introducción de la @ El siguiente paso significativo en la evolución del correo electrónico llegó con la creación del ARPA-NET (Advanced Research Projects Agency Network) en 1969 en el MIT. Sería el precursor de Internet. La rápida expansión de esta red incrementó enormemente el uso del correo electrónico y empezó a generar posteriores innovaciones en el proceso de envíos. En 1971, el ahora estandarizado símbolo de la @ —que llamamos comúnmente «arroba», o at en inglés— se uti-lizó por primera vez para indicar la ubicación concreta en la que la persona que mandaba o recibía el e-mail se encontraba, una inno-vación que formaba parte de un nuevo sistema de correo electróni-co implementado por el progra-mador Ray Tomlinson. El sistema de Tom linson fue el primero que permitió mandar mensajes entre distintos host computers (anfitrio-nes), en vez de hacerlo simple-mente entre distintos usuarios del mismo ordenador central. En el sentido moderno, eso marcó la aparición del primer y auténtico sistema de correo electrónico.

Al año siguiente, 1972, uno de los padres fundadores de Internet —Larry Roberts, que había dirigi-do el desarrollo del ARPANET— diseñó el primer programa de ges-tión de e-mail totalmente operativo, capaz de leer, responder, archivar

Hasta su primer uso en los mensajes electrónicos en 1971, el símbolo @ fue un oscuro símbolo contable que se utilizaba para indicar los niveles de precios en contabilidad. Desde entonces, se ha convertido en uno de los símbolos más utilizados del mundo y ha reunido una impresionante y colorida variedad de descripciones distintas en distintos idiomas. Mientras que en inglés se conoce simplemente como el «símbolo at», en otros idiomas tiene denominaciones mucho más poéticas. En italiano es chiocciola, o caracol, debido a su forma, mientras que en finlandés se cree que es más bien un gato acurrucado (miukumauku). Los rusos lo ven más como un perro (sobaka) y los chinos a veces lo llaman xiao laoshu o ratoncito. Pero tal vez la interpretación más imaginativa es la de los alemanes, que lo ven como un mono araña (klammeraffe).

@ por todo el mundo

cronología1965 1971 1972 1995Se introduce el comando «correo» Primera utilización del símbolo @ Primer programa de e-mail Primer correo a través de la web

001-222 50 ideas digital.indd 21 22/02/2012 16:12:17

22 Fundamentos

y gestionar los correos electrónicos automáticamente. Le siguieron rápidamente otros muchos programas de gestión de correo, pero to-dos ellos siguen siendo básicamente iguales en las funciones que de-sarrollan.

Programas de correo electrónico Cuando se manda un e-mail, no llega al ordenador de un individuo, sino al servidor de correo vir-tual que abastece su servicio particular de correo. Si utilizas un pro-grama capaz de procesar los e-mails —como el Outlook de Micro-soft—, este programa se conecta al servidor de correo a través de Internet para buscar mensajes nuevos y descarga una copia de ellos en tu ordenador.

Actualmente hay mucha gente que utiliza el webmail en vez de un programa «cliente» en su ordenador, lo que significa que acceden al servidor de correo a través de un navegador web. Los programas de webmail se mostraron por primera vez en 1995, y ofrecen la comodi-dad de poder enviar, recibir y leer mensajes electrónicos en cualquier lugar donde hay acceso a Internet y un navegador. Los proveedores de

Hay una gran cantidad de opciones que hoy día se consideran esenciales para cualquier programa de correo electrónico. En los primeros puestos de muchas listas está la capacidad de enviar y recibir archivos —documentos, imágenes, bases de datos, etc.— como «adjuntos» a un mensaje. La función de listado de contactos para gestionar las direcciones y detalles de cada uno es también casi universal, como lo son la capacidad de mandar una copia (cc, por carbon copy) o una copia oculta (bcc, por blind carbon copy) de un mensaje a otros receptores, y de reenviar el mensaje a terceros (fw). Muchas personas utilizan también firmas establecidas, incluyendo automáticamente sus detalles personales o los

de su empresa al pie de cada mensaje. Otros sistemas de e-mail más nuevos, como el Gmail de Google, también han introducido la idea de los intercambios en forma de «conversación», agrupando los mensajes de entrada y de salida con personas y asuntos concretos para facilitar su lectura. Y los sistemas de etiquetaje y de archivo para rastrear los mensajes antiguos son cada vez más importantes, teniendo en cuenta los muchos miles de mensajes que un usuario medio puede esperar acumular a lo largo de su vida. Por no hablar de los sistemas de filtrado y prioridad para asegurar que los mensajes importantes lleguen a buen puerto, y que los triviales o dudosos sean puestos a un lado para su consulta informal.

Equipo de correo electrónico

001-222 50 ideas digital.indd 22 22/02/2012 16:12:17

23 e-mail

webmail más populares actualmente son Gmail de Google, Hotmail de Microsoft y el correo de Yahoo!

Tanto para el webmail como para el correo que se consulta a través de un programa cliente, hay dos protocolos modernos dominantes para bajar el correo de un servidor: el POP (Post Office Protocol) y el IMAP (Internet Message Access Protocol). El POP es un sistema más sencillo, que trata el servidor de manera bastante parecida a una ofici-na de correos: tiende a conectarse con un servidor, buscar y descargar los mensajes nuevos, borrar los antiguos y luego desconectarse. El IMAP ofrece un proceso más sofisticado, que conecta con el servidor más tiempo y permite que varias partes de programas clientes de dis-tintos ordenadores se conecten con el buzón del servidor central y sincronicen el estado de los mensajes entre ellos. En efecto, permite la gestión remota del buzón de mensajes en un servidor, más que la simple descarga y envío de mensajes.

El exceso Teniendo en cuenta el inmenso volumen que circula actualmente por todo el mundo —incluso si excluimos las enormes cantidades de mensajes spam que exigen sistemas de filtrado más sofis-ticados por parte de los proveedores del servicio de e-mail—, la gestión de las bandejas de entrada es una función vital en muchas empresas actuales. Técnicas populares para gestionar el correo electrónico van desde la inbox zero (que no permite que los mensajes permanezcan en la bandeja de entrada) hasta el batching (que dedica un tiempo aparte a clasificar grandes cantidades de correo en una sesión intensa). El siste-ma de comunicación más utilizado a nivel mundial es al mismo tiempo sencillo y un arte en constante transformación.

La idea en síntesis:enviar palabras 

digitalmente es su propia revolución

«Al principio, el correo electrónico no parecía gran cosa porque

no había muchos ordenadores. Era solo tan grande como la red.»

raytomlinson,inventordele-mail

001-222 50 ideas digital.indd 23 22/02/2012 16:12:17

24 Fundamentos

La palabra «computadora» empezó como un término que designaba a la persona que hacía cálculos. Se utilizó por primera vez para referirse a un aparato de cálculo del siglo xix y a un aparato electrónico de cálculo inventado en 1946. Estas primeras máquinas utilizaban tubos de vacío para hacer cálculos, un sistema aparatoso y muy voraz a nivel energético que ocupaba salas enteras. Esta primera máquina de com-putación electrónica totalmente programable, llamada Colossus, se creó en Gran Bretaña en 1943 y se puso en marcha en 1944 para des-codificar mensajes alemanes durante la Segunda Guerra Mundial.

A partir de 1955, los transistores electrónicos empezaron a remplazar los sistemas de válvula en los ordenadores, lo cual llevó al desarrollo de los primeros ordenadores centrales. En la década de 1970, los cir-cuitos integrados y luego los microchips remplazaron aquellos transis-tores, y, por primera vez, fue posible pensar en sistemas informáticos cuyo tamaño, coste, sencillez y necesidades energéticas los pusieran al alcance de los consumidores domésticos.

La revolución del microprocesador La frase «ordenador personal» (o PC en el lenguaje más común) aparecía en varios anun-cios de la década de 1960, pero el primer aparato que mereció real-mente este título fue diseñado en 1970 por Kenbak Corporation. Se llamaba Kenbak-1 y costaba 750 dólares en 1971, el equivalente de

05  Informática personal

Los primeros ordenadores eran cualquier cosa excepto personales: máquinas enormes y caras solo al alcance de instituciones académicas de élite, grandes corporaciones o gobiernos. La democratización gradual de la fuerza informática ha sido una de las más importantes de todas las transiciones digitales, y algo que queda sintetizado en la propia idea de «informática personal»: un ordenador en cada casa. También ha creado una cultura basada en una intimidad sin precedentes entre la persona y la máquina.

cronología1970 1974 1981 1985 1991 2010Primer ordenador personal Primer microchip comercial Primer PC IBM Lanzamiento del Windows

de MicrosoftPrimer portátil PowerBook de Apple

Apple lanza el iPad

001-222 50 ideas digital.indd 24 22/02/2012 16:12:17

25 informáticapersonal

seis veces esta cifra en la actualidad. Se construyeron menos de 50 unidades.

El Kenbak-1 no tenía microprocesador, solo una combinación de circuitos basados en los transistores. Sin embargo, en 1974, la empre-sa estadounidense Intel produjo lo que a me-nudo se considera el primer microprocesador comercialmente viable, el Intel 8080. Unas 500 veces más rápido que los circuitos inte-grados del Kenbak, este chip de 8 bits fue la base de un ordenador de 1975, el Altair 8800 —fabricado por la joven empresa estadouni-dense MITS (Micro Instrumentation and Telemetry Systems)—, y ayudaría a transfor-mar la percepción pública de la tecnología digital para siempre.

Con un precio de 439 dólares en versión kit —o 621 dólares ya montado—, al mes de su lanzamiento ya se habían encargado más de mil Altair 8800, y miles más en el transcurso de aquel año. A su alrededor surgió rápidamente

«Lista para reducir drásticamente las largas rutinas y obtener respuestas en milisegundos. Así es el nuevo ordenador personal Hewlett-Packard 9100A.»

sciencemagazine,1968

cronología1970 1974 1981 1985 1991 2010Primer ordenador personal Primer microchip comercial Primer PC IBM Lanzamiento del Windows

de MicrosoftPrimer portátil PowerBook de Apple

Apple lanza el iPad

El último en llegar a la familia de los ordenadores personales ha sido la tablet —un dispositivo fino y ligero que se controla básicamente a través de una pantalla táctil, en vez de con el teclado—. Microsoft mostró un tablet por primera vez en 2001, pero sería el lanzamiento del iPad de Apple el 2010 lo que cambiaría fundamentalmente la idea de lo que un ordenador móvil personal podía significar. Aplicando un sistema operativo mejorado derivado del que utilizaba el iPhone

de Apple lanzado en 2007, el iPad significaba una nueva etapa de facilidad y de intimidad en el uso de los aparatos informáticos portátiles, y su aparición como plataformas y no simplemente como trabajo y funcionalidad, como se tendía a utilizar los portátiles hasta entonces, los convertía en aparatos mediáticos totalmente autónomos, aptos para navegar, leer, mirar, escuchar y jugar. La informática continúa haciéndose considerablemente más personal.

Los tablets de pantalla táctil

001-222 50 ideas digital.indd 25 22/02/2012 16:12:17

26 Fundamentos

una cultura de modificaciones y creación de accesorios, pero fue en el ámbito de los programas donde el Altair 8800 tuvo quizá su mayor efecto, gracias a la puesta en el mercado de un lenguaje de programa-ción específico llamado Altair BASIC: el primer producto lanzado por una nueva empresa llamada entonces Micro-Soft que dos amigos, Paul Allen y Bill Gates, crearon en respuesta al lanzamiento del orde-nador.

El Altair 8800 ayudó a demostrar algo que en aquel momento sor-prendió a casi todo el mundo: que los ordenadores no interesaban so-lamente a los académicos y a los expertos, sino que tenían la capaci-dad de levantar pasiones en todo el espectro humano. A partir de este éxito, 1977 vio lanzar a otras tres compañías las primerísimas máqui-nas producidas en masa que venderían millones de unidades y ayuda-rían a establecer la mentalidad digital como parte integral de la vida cotidiana: el Apple II, el Commodore PET 2001 y el Tandy TRS-80.

Hacia el presente A mediados de la década de 1980, el valor del mercado global de ordenadores personales se cifraba en miles de millones de dólares, impulsado por la mejora gradual del hardware y el software, y por el avance hacia los Interfaces Gráficos de Usuario (GUI) como el Mac OS (lanzado en 1984) y el Microsoft Windows (en 1985). Estos sistemas operativos permitían al usuario interactuar con sus ordenadores a través de gráficos coloreados interactivos, en vez de tener que teclear las órdenes en una pantalla en blanco.

IBM sacó su primer ordenador personal, el IBM PC, en 1981, y su éxito afectó profundamente al mercado de los ordenadores persona-les, llevándolo rápidamente hacia un estándar popular. Anteriormen-te, el hardware y el software habían sido específicos de los distintos modelos y fabricantes, lo cual creaba un mercado fragmentado, pero el enorme éxito del IBM provocó un brote de nuevos ordenadores personales compatibles con IBM, y finalmente llevó a que el propio acró-nimo PC (iniciales de personal computer) acabara significando «máqui-na compatible con IBM» y no cualquier ordenador personal. La déca-da de 1980 vio también la aparición de un nuevo tipo de ordenador

«Si el automóvil hubiera seguido el mismo patrón de desarrollo que el ordenador, hoy día un Rolls-Royce

costaría 100 dólares, recorrería un millón de millas con un galón de gasolina

y estallaría una vez al año.»robertX.cringely

001-222 50 ideas digital.indd 26 22/02/2012 16:12:17

27 informáticapersonal

portátil, que llegó al mercado en 1981 pero que tuvo escaso impacto comercial hasta finales de la década: el laptop.

Apple siguió desarrollando sus propias líneas de software y de hardware, pero las máquinas compatibles con IBM dominaban. Gradualmente fueron ganando multitud de accesorios que convertían la informática doméstica en mucho más potente y universal que nunca: tarjetas de gráficos y de sonido específicas y cada vez más potentes, drives de CD-ROM desde principios de la década de 1990, monitores más grandes y de rendimiento mejorado y, en su momento, la conexión a Internet.

En 2000 ya se adquirían más de cien millones de PC al año; en 2002 se usaban más de quinientos millones en todo el mundo, y el 2008 ya eran mil millones. Pero en la actualidad, el dominio de los PC en el mercado digital está menguando, puesto que se han convertido senci-llamente en un aparato cada vez más común entre muchos, en vez de ser la única ventana de mucha gente a un nuevo mundo tecnológico.

La idea en síntesis:los ordenadores son 

para todos

En el momento en que salió a la venta en 1971, el primer ordenador personal del mundo, el Kenbak-1, era capaz de hacer menos de mil operaciones por segundo. Al cabo de cuatro años, un Altair 8800 podía hacer medio millón. Pero esto no había hecho más que empezar. En 1982, el nuevo chip 80286 de Intel era capaz de operar con 2.660.000 operaciones por segundo, mientras que los ordenadores en los que se instaló tenían más de cien veces más memoria para hacer funcionar programas que el Altair. En 1990, los chips de ordenadores personales operaban a más de

40 millones de operaciones por segundo; en 2000, eso había crecido a más de 3.500 millones, y para 2010 ya se habían superado los 140.000 millones de operaciones por segundo. Y estos chips se instalaban en ordenadores caseros que costaban menos de un 10 por 100 del precio de una máquina de los años ochenta, con aproximadamente 10.000 veces su capacidad de memoria. Esta historia continuada de obtener más y más por menos es uno de los impulsos permanentes del cambio —y el derroche— en la cultura digital.

¿Cuán rápido?

001-222 50 ideas digital.indd 27 22/02/2012 16:12:17

28 Fundamentos

En una relación normal online entre cliente y servidor, el cliente es un ordenador o programa individual, como un navegador, mientras que el servidor, a veces también conocido como host, es la fuente de la información o servicio que el cliente desea utilizar. Todos los recursos de Internet funcionan siguiendo este patrón cliente/servidor, lo cual significa que hay una gran cantidad de tipos de servidores distintos: servidores de correo electrónico con los que los usuarios se conectan para usar el e-mail, servidores de red que gestionan páginas web, ser-vidores de juegos que albergan videojuegos de red, etcétera. Los servi-dores también hacen muchas de las funciones superiores que mantie-nen operativa la infraestructura básica de Internet.

Una de estas funciones superiores la desarrollan servidores que tratan con los nombres de distintos sitios web, garantizando que las direccio-nes con cifraje específico de cada sitio en la red están trazadas correc-tamente en las direcciones que los usuarios están habituados a leer en sus navegadores: www., bbc., co., uk., etcétera. Esta función de traza-do la efectúan por toda la red los servidores de Domain Name System (DNS), que se aseguran de que los usuarios de Internet pueden te-clear una dirección web en un navegador y serán dirigidos correcta-mente hacia la página en cuestión.

06  ServidoresCasi todas las acciones hechas pasan por al menos un ordenador «servidor». En su sentido más simple, un servidor es sencillamente un sistema en una red, capaz de dar servicio a otros sistemas de esta misma red. Actualmente, gracias al modelo cliente/servidor que apuntala toda la estructura de Internet, existen decenas de millones de servidores en todo el mundo —apiñados, en el caso de los mayores servicios de la red, en centros de datos que engloban miles de unidades—. Esta infraestructura física consume cantidades enormes de recursos y le da al mundo virtual una considerable (y potencialmente vulnerable) huella en el mundo real.

cronologíadécadade1970 1990 2001Se empiezan a usar los primeros servidores en rack Primer servidor web del mundo Envío del primer servidor blade

001-222 50 ideas digital.indd 28 22/02/2012 16:12:17

29 servidores

Entre los servidores DNS, los «servidores raíz» (root name servers) —los que operan con la parte más fundamental de la jerarquía del sistema de nombres de dominio, su zona «raíz»— son especialmente importantes. Estos son, de hecho, los nodos que aseguran el funcionamiento de In-ternet. En todo el mundo existen solo trece ser-vidores raíz distintos, nombrados de la A a la M en el alfabeto... aunque, de hecho, hay múltiples copias de cada uno por motivos de seguridad y estabilidad, con un total de unas 250 máquinas de servidores raíz que operan en todo el mundo.

Cadenas de servidores El simple acto de acceder a una página de la World Wide Web pue-de implicar a numerosos servidores, puesto que las peticiones se derivan desde el navegador de nuestro ordenador, a través de nuestro router o conexión a Internet caseros, y luego a través de distintos niveles de servidores de nombres de dominio que imple-mentan los protocolos que gobiernan las direcciones web, hasta el ser-vidor o servidores en los que la página web en cuestión está alojada.

cronologíadécadade1970 1990 2001Se empiezan a usar los primeros servidores en rack Primer servidor web del mundo Envío del primer servidor blade

Utilizar un servidor proxy introduce un enlace adicional a la cadena cliente/servidor. Entre el ordenador del usuario y el servicio que está usando hay una máquina «proxy». Eso tiene variedad de usos, el más habitual de los cuales es acelerar el acceso a Internet: el servidor proxy almacena información que el cliente utiliza con frecuencia (es decir, guarda copias de la misma), lo que significa que no todo ha de ser enviado desde el servidor real. Los servidores proxy son muy utilizados por parte de los proveedores de Internet y por los centros de datos para acelerar el tráfico. Pero también pueden utilizarse para burlar los filtros o la censura. Puede que resulte

imposible acceder a una página web o recurso virtual específicos porque los detalles de su servidor están bloqueados en una red concreta, pero utilizar un servidor proxy como intermediario permite sortear el obstáculo. Los servidores proxy también permiten al usuario navegar anónimamente por Internet ocultando su dirección IP particular, lo cual actúa efectivamente como máscara entre un usuario de Internet y cualquiera que quiera observar y rastrear sus acciones por la red. Las cadenas de servidores proxy pueden convertir la fuente original de una circulación por la red en prácticamente imposible de rastrear.

Servidores proxy

«Si pirateamos el servidor del Vaticano, ¿estamos irrumpiendo en el dominio de Dios?»aaronallston

001-222 50 ideas digital.indd 29 22/02/2012 16:12:18

30 Fundamentos

Si la página web o el servicio que utilizamos no están en la misma red local que nuestro ordenador, nuestro servidor DNS local necesitará obtener esta información de otro servidor DNS, y tendrá que ponerse en contacto con el servidor raíz para averiguar qué servidores de nom-bre primario y secundario tienen la información relevante sobre la direc-ción web que hemos introducido. Hasta que la dirección numérica real de la página que intentamos visitar no haya sido transmitida de vuelta a nuestro ordenador, nuestro servidor web no podrá ponerse directamente en contacto con la página y empezarla a mostrarla en nuestra pantalla.

Crear un servidor Los servidores son ordenadores físicamente especializados que funcionan de una manera muy distinta a los orde-nadores de las máquinas caseras o de empresa. Su característica pe-culiar es que prácticamente no hay que apagarlos nunca: el servidor ha de ser capaz de responder a las peticiones en cualquier momento, y se espera que estén operativos más del 99 por 100 de las veces (en el caso de muchos negocios, esta expectativa puede llegar hasta el 99,995 por 100). La fiabilidad es, por lo tanto, un aspecto clave, junto con la seguridad de abastecimiento energético y con la capacidad de mantener una temperatura operativa adecuada. Eso conlleva a menu-do la instalación de sistemas de copia de seguridad (backup) y de pro-tección contra fallos (failsafe).

Estos factores, unidos a la necesidad que tienen la mayoría de los prin-cipales servicios digitales de una gran cantidad de servidores, significan

La cantidad de potencia informática necesaria para mantener en funcionamiento las mayores páginas web y compañías de Internet del mundo es apabullante. Las cifras puras y duras son muy difíciles de obtener y cambian constantemente, pero en 2010, según algunas estimaciones, se cree que Google operaba con más de un millón de servidores para poder procesar los miles de millones de peticiones que reciben sus sitios web. Eso puede representar por sí solo alrededor de un 2 por 100 de todos los servidores del mundo, concentrados en centros de datos creados específicamente en ubicaciones globales clave, y que

consumen millones de dólares en energía. En comparación, el mayor fabricante mundial de chips informáticos, Intel, tenía en 2010 unos 100.000 servidores, y puede que Facebook se le esté acercando gracias a la enorme velocidad con la que crece. Mientras, la tienda virtual Amazon —con una capacidad de decenas de miles de servidores, instalados en parte para garantizar que su página no se caiga nunca, ni siquiera en los momentos de máxima circulación de ventas— lidera el mercado mundial de alquiler de su potencia de servidores a clientes de pago (véase el capítulo 41, «Informática en la nube», donde se trata este aspecto con más detalle).

¿Quién tiene más?

001-222 50 ideas digital.indd 30 22/02/2012 16:12:18

31 servidores

que tiene sentido hacerlos funcionar en grandes grupos, a veces lla-mados «granjas de servidores» (server farms) o «centros de datos». Es-tos pueden tener cientos o hasta miles de máquinas, físicamente orga-nizadas en racks: estanterías altas de metal que tradicionalmente son capaces de albergar hasta 42 servidores apilados verticalmente. Estos servidores son máquinas compuestas solamente por sus componentes básicos. Hay un tipo de servidor todavía más simplificado, conocido como blade debido a su perfil extremamente fino, que ha llevado esta práctica todavía más lejos, lo cual significa que en cada rack de servido-res pueden colocarse teóricamente hasta 128 de estas máquinas.

Las granjas de servidores consumen enormes cantidades de electrici-dad —más en costes de mantenimiento finales que el coste de compra de los propios ordenadores— y generan muchísimo calor, con lo cual, mantenerlos frescos y conseguir una correcta circulación del aire por los racks es crucial. Eso ha significado tradicionalmente una fuerte in-versión en aire acondicionado, ventiladores y construcciones elevadas para asegurarse una buena aireación, pero, con un ahorro energético potencial de millones de dólares, las grandes empresas experimentan cada vez más con la ubicación de sus servidores en climas fríos y la aplicación de técnicas avanzadas y ecológicamente sostenibles de cir-culación del aire, e incluso con centros marítimos en vez de terrestres.

El consumo energético de los servidores es un problema medioambien-tal creciente. Prácticamente un 2 por 100 del consumo energético total de Estados Unidos se debe a la IT, y con el crecimiento global cons-tante de las empresas de Internet y virtuales, el propio Internet se está convirtiendo en una de las fuentes de emisiones de mayor crecimiento mundial, gracias en buena parte al enorme consumo energético de los servidores necesarios para mantenerlo en funcionamiento.

La idea en síntesis:los servidores son los motores del mundo 

digital

«Actualmente, en nuestros centros de datos tenemos literalmente cientos de

miles de servidores. En el futuro tendremos varios millones.»

billgates

001-222 50 ideas digital.indd 31 22/02/2012 16:12:18

32 Fundamentos

Como se explicaba en el capítulo 2, el primer navegador del mundo lo creó Tim Berners-Lee en diciembre de 1990. Los navegadores son necesarios para convertir los lenguajes de marcado en los que está es-crita la red en páginas utilizables y coherentes. Si intentáramos visua-lizar una página web con un simple editor de texto, veríamos su «có-digo fuente» en forma bruta, lo que codifica una serie de instrucciones sobre la apariencia y el resultado que un navegador mostraría como una página web totalmente funcional.

Tim Berners-Lee pudo haber introducido el primer navegador, pero sería un programa llamado Mosaic, aparecido en 1993, el primero en llevar la red al público no especializado. Mosaic contenía una serie de innovaciones. Diseñado por un equipo del National Center for Supercomputing Applications (NCSA) de Estados Unidos y ofreci-do gratuitamente, mostraba imágenes web junto a texto, en vez de hacerlo en una ventana por separado, contenía una elegante interfaz de gráficos y, lo más importante, pronto fue compatible con los dis-positivos que funcionaban con el sistema operativo Microsoft Win-dows, más que sencillamente con el Unix, para el que los anteriores navegadores habían sido diseñados.

07  NavegadoresLos navegadores se inventaron al mismo tiempo que la World Wide Web y son una parte integral de su arquitectura —las herramientas de software mediante las cuales los usuarios acceden a un conjunto cada vez más enorme de aplicaciones, medios de comunicación, información, programas y plataformas sociales—. La evolución de los navegadores, de simples herramientas a tal vez los juegos de software más versátiles e importantes del mundo, es una parte fundamental de la historia de la cultura digital... y de la integración cada vez más perfecta de Internet a la vida cotidiana.

cronología1991 1993 1995 2003 2008Primer navegador de red del mundo

Aparece el navegador Mosaic, la primera aplicación asesina (killer app) de la web

Lanzamiento de Microsoft Internet Explorer

Lanzamiento del Safari de Apple Lanzamiento de Google Chrome

001-222 50 ideas digital.indd 32 22/02/2012 16:12:18

33 navegadores

Cambio de percepciones La llegada de los navegadores web como experiencias gráficas atractivas y accesibles fue el principio de un cambio enorme en la manera de utilizar Internet. Hasta entonces, los servicios online accesibles para los usuarios no expertos en infor-mática habían estado muy restringidos a los servicios ofrecidos por ISP como AOL, que ofrecía e-mail, noticias, chat, juegos y otros ser-vicios propios dentro de los límites de sus redes privadas. Pero de pronto, los espacios abiertos de la World Wide Web empezaron a pa-recer un auténtico fenómeno de masas.

El paso siguiente en navegación llegó en 1994 con la introducción del Netscape Navigator, basado en Mosaic y también disponible gratuita-mente. Las mejoras en relación con Mosaic incluían la capacidad de ver los contenidos de las páginas web mientras se cargaban, en vez de estar mirando una pantalla en blanco hasta que se hubiera comple-tado la transmisión de datos. Otras innovaciones que llegaron vía va-rias actualizaciones de Netscape, durante la década de 1990, incluían la capacidad de las páginas web de almacenar trozos de información, co-nocidos como cookies, en el ordenador de un usuario, para que el ser-vidor pudiera utilizarlos para ofrecer un servicio mejorado y más per-sonalizado; y el primer lenguaje de scripting para un navegador, JavaScript, que permitía incrustar una serie de funciones dinámicas

cronología1991 1993 1995 2003 2008Primer navegador de red del mundo

Aparece el navegador Mosaic, la primera aplicación asesina (killer app) de la web

Lanzamiento de Microsoft Internet Explorer

Lanzamiento del Safari de Apple Lanzamiento de Google Chrome

A medida que los lenguajes y las aplicaciones basados en la red se hacen cada vez más sofisticados, todo lo que hace un ordenador ocurre cada vez más dentro de la ventana de un servidor y no en aplicaciones separadas y específicas. Una de las compañías que ha llevado más lejos este concepto es Google, cuyo propio navegador, el Chrome —presentado al público en 2008—, fue diseñado desde el principio como un primer paso hacia un sistema operativo informático que funcionaría totalmente con aplicaciones basadas en la red, en vez de hacerlo como un programa instalado en un ordenador concreto. A mediados de 2011 se lanzó el Chrome OS, uno de una serie de desarrollos en el funcionamiento de un número creciente de servicios informáticos centrales que operan a través de Internet en vez de hacerlo a través de máquinas locales.

¿El fin de los sistemas operativos?

001-222 50 ideas digital.indd 33 22/02/2012 16:12:18

34 Fundamentos

en las páginas web... desde imágenes que cambiaban al pasarles el ra-tón por encima hasta formularios y menús interactivos.

Rivalidades corporativas En 1996, Netscape dominaba ya de manera abrumadora el mercado en expansión de los navegadores. Sin embargo, en aquel momento Microsoft empezó a incluir una copia de su navegador, Internet Explorer, con el sistema operativo Windows instalado en los ordenadores nuevos. La estrategia tuvo un éxito aplastante; tanto, que Microsoft se encontraría más tarde enfrentada a litigios antimonopolio basados en la ley de la libre competencia. En 2002, el Internet Explorer se había colocado a la cabeza del mercado de los navegadores, utilizado por aproximadamente un 95 por 100 de los usuarios de la red.

Pero desde entonces, alimentado por la innovación continuada en las aplicaciones web y por la siempre creciente comunidad de usuarios de la red, el mercado se ha abierto considerablemente. El sucesor de có-digo abierto de Netscape, el navegador de Mozilla Firefox, es hoy día el preferido por casi un tercio de los usuarios, todavía detrás de Inter-net Explorer, con un total de más del 40 por 100; el navegador de Apple, Safari, introducido en 2003, domina entre los usuarios de Mac y representa aproximadamente un 6 por 100 del mercado total de na-vegadores. El otro principal integrante del mercado, Google, lanzó su navegador Chrome en 2008, y hoy día ya copa un 12 por 100 (en rápi-do crecimiento) del mercado global.

Plug-ins A medida que se han ido extendiendo los usos de la red, la capacidad original de los buscadores para mostrar páginas web cada vez más complicadas se ha ido complementando con el uso de plug-ins, programas descargables adicionales que permiten al navegador mostrar medios desarrollados para funcionar en programas de terce-

«Sueños frustrados desde hace mucho de liberación informática

—de una biblioteca universal, de autoedición instantánea, de

documentos electrónicos lo bastante listos como para responder a las

preguntas del lector— están aprovechándolo [el navegador

Mosaic] para aporrear de nuevo a las puertas de la consciencia

popular.»garyWolfe,1994

001-222 50 ideas digital.indd 34 22/02/2012 16:12:18

35 navegadores

ros, como el Adobe Flash (para ver animaciones, juegos, vídeos y me-dios interactivos) o el iTunes y el Quick Time de Apple.

Tales herramientas incrementan considerablemente la versatilidad y el poder de los navegadores, aunque no todos son compatibles. Por ejemplo, hay versiones del Safari de Apple, diseñadas para su uso en dispositivos móviles y tablets como el iPhone y el iPad, que no son compatibles con el Flash de Adobe, lo cual significa que hay grandes cantidades de contenido multimedia online que no pueden verse a través de estos aparatos. Como tal omisión sugiere, los navegadores siguen siendo un campo de batalla virtual para las tecnologías digita-les, determinando así buena parte de lo que es posible —o imposi-ble— de conseguir online para las compañías y los servicios.

La idea en síntesis:los navegadores  dan vida a la web

Para un navegador, reflejar correctamente todos los elementos de una página web puede ser una tarea difícil, teniendo en cuenta la complejidad de los elementos involucrados en la creación de los servicios online más avanzados... Y para el usuario puede ser igual de difícil saber si su navegador preferido cumple los mejores criterios del momento. La página web Acid3 fue diseñada teniendo estas ideas en mente. Visitando sencillamente la página http://acid3.acidtests.org, nuestro navegador intentará reproducir correctamente una página que pruebe su conformidad con los criterios actuales del Web Standards Project, dividido en 16 pequeños tests que van desde el scripting hasta la reproducción. El resultado es una imagen de prueba y una puntuación sobre 100. En el momento de su aparición en 2008, ninguno de los navegadores disponibles obtuvo la máxima puntuación, aunque hay algunos —como el Chrome— que actualmente lo logran.

¿Qué resultado da?

001-222 50 ideas digital.indd 35 22/02/2012 16:12:18

36 Fundamentos

La primera extensión que apareció del propio HTML se llamaba Dyna-mic HTML, abreviado como DHTML. La etiqueta dynamic significaba que, por primera vez, las páginas web se escribían en un lenguaje que les permitía mostrar contenidos capaces de cambiar y funcionar de manera interactiva, al contrario que el HTML original, que simplemente indi-caba a los navegadores cómo habían de mostrar una página estática. Con las primeras páginas web basadas totalmente en las primeras ver-siones del HTML, cualquier cambio o reacción de una página web sig-nificaba que había que volver a descargarla desde el principio desde el servidor. En cambio, una página escrita usando DHTML puede reaccio-nar a las acciones de un usuario de la web sin tener que ponerse en contacto con un servidor y volver a cargarse cada vez que ocurre algo.

DHTML A diferencia del HTML, el DHTML no es un lenguaje único: el término hace referencia a una combinación de tres tecno-logías básicas que entre ellas permiten a las páginas web aparecer de forma dinámica. La primera es DOM (Document Object Model), una herramienta capaz de definir todos y cada uno de los objetos de una página web. Debido a que una página que utiliza el DOM se puede tratar como un conjunto de «objetos» reales, más que como simple-

08  Markup Languages

Los Markup Languages (lenguajes de marcado) son el conjunto codificado de instrucciones que indican a un navegador web la manera exacta en que debe aparecer y comportarse una página web. El más fundamental de estos lenguajes es el HyperText Markup Language («Lenguaje de marcado de hipertexto»), o HTML, que define el formato básico de los documentos web y les permite ser visualizados a través de navegadores y ser enlazados entre ellos. Pero hay también otros lenguajes y protocolos de lenguaje importantes que colectivamente permiten a la red moderna ofrecer sofisticadas opciones interactivas que hoy damos por sentadas.

cronología1991 1995 1996 1996 2005Se define por primera vez el HTML

Aparece JavaScript Se define por primera vez el CSS

XML se define por primera vez Aparece el término AJAX

001-222 50 ideas digital.indd 36 22/02/2012 16:12:18

37 markuplanguages

mente una cantidad indiferenciada de información, aparece la posibilidad de que los elementos individua-les de la página cambien o interactúen con un usuario sin que toda la información de la página tenga que vol-ver a mandarse de nuevo por Internet.

El segundo aspecto del DHTML es el CSS (Cascading Style Sheets), una serie de plantillas capaces de definir cómo todo, desde el tamaño de las fuentes hasta el co-lor, los espaciados y el tamaño de las imágenes, ha de aplicarse a todo lo que aparece en una página web. Como un DOM, el CSS ofrece un conjunto general de normas para una página web, en vez de una información fijada sobre cada parte individual de la misma, lo que permite mucha más flexibi-lidad y margen. Cualquier cosa etiquetada como «encabezado», por ejemplo, se puede asignar automáticamente para que aparezca en le-tras grandes, negritas y subrayadas... lo cual permite que los elementos de la página se adapten automáticamente cuando sencillamente cam-biamos el estilo que les hemos aplicado.

El tercero y más importante de todos los DHTML son los «lenguajes de scripting». Estos son, efectivamente, un lenguaje de programación en miniatura que descarga una serie de instrucciones que se lanzan desde la parte del «cliente» —es decir, desde el navegador web de un indivi-

Lo que da potencia a un lenguaje es el número de usuarios que lo hablan, y un esfuerzo considerable se dedica de manera similar a asegurar la definición de un criterio común para todos los lenguajes y protocolos que sostienen tanto la web como la tecnología digital en general. En este proceso hay involucradas varias organizaciones. El World Wide Web Consortium (W3C) es la primera organización mundial dedicada a este tipo de criterios, que los actualiza y los mantiene para la

mayoría de los principales protocolos y lenguajes públicos usados online: desde las hojas de estilo CSS hasta XML y HTML. La Organización Internacional de Estandarización (ISO, por sus siglas en inglés) es otro importante ente internacional. Con sede en Ginebra y fundada en 1947, supervisa muchos de los estándares digitales más esenciales del mundo, desde los lenguajes de programación hasta los gráficos, los formatos de datos, las redes y el hardware.

Mantener los criterios

cronología1991 1995 1996 1996 2005Se define por primera vez el HTML

Aparece JavaScript Se define por primera vez el CSS

XML se define por primera vez Aparece el término AJAX

«Tenemos que poner las herramientas para el crecimiento del lenguaje en manos de los usuarios.»guysteele

001-222 50 ideas digital.indd 37 22/02/2012 16:12:18

38 Fundamentos

duo— en vez de hacerlo desde el lado del servidor. Estas instrucciones permiten al navegador ofrecer una experiencia mucho más compleja al usuario de lo que sería posible si cada acción y acto individual tuvieran que determinarse solicitándola al servidor.

JavaScript El lenguaje más importante y popular de los de la par-te del cliente es el Java Script. Introducido en 1995 como parte del navegador Netscape —originalmente llamado Mocha—, no tenía

nada que ver con el lenguaje de programación llamado Java. El JavaScript obtuvo rápidamente una gran popularidad y permitió a los promotores de la red ofrecer expe-riencias virtuales mucho más ricas de las que habían sido posibles a través del HTML. En 1996, Mi-crosoft sacó su propio lenguaje de scripting compatible, el JScript,

para su propio navegador rival. JavaScript y JScript permitieron a los promotores de la red concebir funciones de programación que podían aplicarse a «objetos» definidos por el Document Object Model de una página web, dando paso a las primeras versiones de buena parte de lo que tomamos hoy por sentado en la red moderna: menús desplegables, formularios interactivos que podemos rellenar, etcétera.

XML Otra etapa clave en la evolución fue la introducción en 1998 del Extensible Markup Language o XML. El XML no se basaba en el lenguaje HTML, sino en un conjunto de principios generales anteriores a Internet que se utilizaban para definir el estilo de los do-cumentos. Se había originado en la década de 1960 como medio para hacer legibles los documentos electrónicos con una sola práctica es-tándar para muchos tipos de dispositivos.

El XML aplicó este principio de estandarización a la web, ocupándose así de un tema clave con su crecimiento sostenido: la importancia de que las páginas web pudieran leerse y mostrarse correctamente a través de muchos tipos de aparatos y navegadores distintos. Antes del XML, los creadores tenían que guardar varias versiones de cada página web, cada una con una codificación específica, para que la misma pudiera funcionar correctamente con los distintos navegadores y ordenadores. En cambio, el XML definió un conjunto de reglas para codificar la in-formación en un formato estándar y legible con todo tipo de aparatos y programas, como los navegadores de red y muchos otros programas.

En este sentido, el XML funcionaba no como un lenguaje individual, sino como un conjunto de normas para crear lenguajes compatibles: actualmente se utilizan cientos de lenguajes basados en los principios

«El objetivo de JavaScript es dar a potencialmente

millones de personas que no son programadoras la

oportunidad de modificar y embellecer páginas web.»

brendaneich,1996

001-222 50 ideas digital.indd 38 22/02/2012 16:12:19

39 markuplanguages

del XML por navegadores, herramientas de oficina y profesionales, ba-ses de datos y muchos otros campos. Gracias a un estándar común defi-nido —y actualizado con regularidad— en XML, todas estas creaciones son capaces de mantenerse compatibles a un nivel fundamental.

Más allá del XML Las páginas web actuales más avanzadas son altamente interactivas y funcionan cada vez más como programas in-formáticos por derecho propio. Una de las maneras más efectivas de conseguirlo es a través de una técnica conocida como AJAX (por Asyn chronous JavaScript and XML). Como el DHTML, el AJAX no es un lenguaje único, sino un grupo de tecnologías que colectivamen-te permiten la existencia de páginas web muy interactivas, como los programas de e-mail o muchas páginas de compras o de ocio.

El término AJAX en sí fue acuñado en 2005, aunque el tipo de tecnolo-gías que engloba llevaban algún tiempo utilizándose. Lo más importante es que permite a las páginas web recoger datos y operar de manera inde-pendiente mientras un usuario está usando y visualizando la página: de ahí la palabra asynchronous («asincrónico») de su nombre, que describe el hecho de que todos estos procesos pueden ocurrir independientemente en momentos distintos. En el capítulo 17 se incluyen más detalles sobre cómo los contenidos complejos e interactivos se presentan online.

La idea en síntesis:las tecnologías digitales 

exigen lenguajes digitales comunes

Tanto la idea de «marcado» (markup) como muchos de los términos más habituales en los lenguajes de marcación o anotación informáticos, datan no de los inicios de la tecnología digital, sino de una transformación tecnológica muy anterior: el nacimiento de la imprenta. La impresión con tipografía móvil apareció en Europa en el siglo xv y fue un proceso laborioso que normalmente conllevaba que los manuscritos fueran «anotados» con

instrucciones del impresor sobre cómo debían presentarse en la pagina: qué palabras debían destacarse en negrita, en cursivas, como encabezados, subrayadas o destacadas aparte. Hoy día hay varios términos de impresor que sobreviven en el lenguaje del marcado digital: desde la abreviatura «em», del inglés emphasts, indicando «énfasis» (para poner en cursiva), hasta el uso de la etiqueta strong, para indicar que hay que poner el texto en negrita.

Una historia impresa

001-222 50 ideas digital.indd 39 22/02/2012 16:12:19

40 Fundamentos

Google se fundó en 1998 y es la compañía más famosa de las que han convertido en negocio la búsqueda de la información que hay en In-ternet. Pero hay, y ha habido, muchas otras dedicadas a la misma ta-rea. El primer motor de búsqueda de Internet fue creado ocho años antes de que existiera Google, en 1990, por un estudiante de la Mc-Gill University de Montreal. Se llamaba Archie —derivado de la pa-labra archive, sin la v— y fue el primer programa capaz de hacer una función sencilla pero crucial: descargaba automáticamente una lista de todos los archivos disponibles de todos los sitios de Internet públi-cos que podía encontrar. Los usuarios podían entonces buscar por esta lista de nombres de archivos, para ver si coincidían con palabras o abreviaturas concretas.

La siguiente etapa en el desarrollo de los buscadores llegó en 1993. A esas alturas, la World Wide Web ya había empezado a despegar, lo que significaba que Internet ya no se componía simplemente de ar-chivos almacenados en ordenadores conectados entre ellos. Había, además, un número creciente de páginas web reales por ahí, almace-nadas en ordenadores que hacían de auténticos servidores de red más que de simples almacenes en los que se podían guardar archivos. Otro estudiante, esta vez del MIT, creó algo llamado World Wide Web Wanderer, un programa capaz no solo de grabar los nombres de los

09  BúsquedasSin la capacidad de buscar por las cada vez más enormes cantidades de información que contiene, Internet tendría un uso limitado. Ya en 2005, Eric Schmidt, el CEO de Google, calculó que había unos cinco millones de terabits de datos en la red: aproximadamente 1.000.000.000.000 bits de información. De ellos, Google —el mayor buscador del mundo— tenía indexados solo 200 terabits, sobre un 0,04 por 100. La cantidad de datos que circulan por Internet, desde entonces, ha aumentado muchas veces, y buscar las partes más importantes sigue siendo uno de los grandes retos de la cultura digital.

cronología1990 1993 1995 1998 2000 2009Primer buscador de Internet

Primer buscador de la web

Lanzamiento del directorio web de Yahoo!

Fundación de Google Fundación de Baidu Microsoft lanza Bing

001-222 50 ideas digital.indd 40 22/02/2012 16:12:19

41 búsquedas

archivos en máquinas conectadas a Internet, sino además de buscar por ahí y encontrar páginas web y grabar sus ubicaciones exactas. Este wanderer o vagabundos es el primer ejemplo de lo que se llama «ro-bot» de la red, ya que era capaz de funcionar de manera automática. A lo largo de varios años fue creando un índice que daba cierta indi-cación del siempre creciente tamaño de la World Wide Web de los principios.

Indexación completa El siguiente gran salto llegó en 1994, con un programa llamado WebCrawler. Fue el primer motor de bús-queda que creaba un índice no solo de los nombres y las ubicaciones de las distintas páginas web, sino también de cada una de las palabras que aparecían en las páginas visitadas. Esto permitía por primera vez a los usuarios buscar por el contenido real de las páginas a través de un buscador, más que tener que encontrar una página que pareciera inte-resante y luego ir a visitarla para comprobar si realmente lo era.

A esas alturas, las posibilidades comerciales de la red empezaban a ser evidentes y la búsqueda empezaba a aparecer como una valiosa opor-tunidad de negocio. Entre 1994 y 1996 aparecieron gran cantidad de

cronología1990 1993 1995 1998 2000 2009Primer buscador de Internet

Primer buscador de la web

Lanzamiento del directorio web de Yahoo!

Fundación de Google Fundación de Baidu Microsoft lanza Bing

Google es el buscador dominante en casi todos los países del mundo, una hazaña considerable para una compañía estadounidense en una zona tan inmensamente internacional como es Internet. Hoy día, Google opera en más de sesenta regiones globales en un número similar de idiomas distintos. Pero hay unos cuantos países en los que no domina: en China, el buscador nativo Baidu —que respeta las normas de censura de su gobierno— tenía a finales de 2010 un 70 por 100 del mercado de los buscadores, comparado con el menos del 25 por 100 de Google. En Rusia, la empresa rusa Yandex controla más del 60 por 100 de las búsquedas, mientras que en la República Checa y en Corea del Sur también dominan las compañías locales. Pero, en conjunto, se trata de casos excepcionales: a finales de 2010 Google presumía de efectuar más de tres cuartas partes de todas las búsquedas globales, seguido de Yahoo!, el buscador Bing de Microsoft y Baidu, todos ellos con menos de un 10 por 100.

Rivales globales

001-222 50 ideas digital.indd 41 22/02/2012 16:12:19

42 Fundamentos

buscadores rivales, aprovechando la estructura esencialmente abierta de la red para recopilar sus propios índices de sitios e intentar ganar usuarios. Estos buscadores incluían Lycos, Magellan, Excite, Infoseek y AltaVista, y entre ellos se impulsó rápidamente la innovación en un terreno en el que lo más importante era obtener la atención de los usuarios, intentando ofrecer herramientas más potentes y más útiles que los demás.

Utilidad La idea de sencillamente vincular términos de búsqueda con páginas web y otros recursos es solo una pequeña parte de la his-toria de los buscadores. Igual de importante, y mucho más difícil de asegurar, es la idea de que buscar algo ha de aportar resultados no solo precisos y exhaustivos, sino también útiles. Hay tres maneras princi-pales de intentar asegurarse resultados útiles, todas ellas vitales para los buscadores modernos: tener un índice de páginas web lo más exhaustivo posible; dar a los usuarios las máximas herramientas posibles para ayudarles en la búsqueda, y —la más difícil de todas— intentar aprender del comportamiento de la gente y de las propias páginas web qué es lo que se considera información útil y lo que no para la gente que busca algo.

A mediados de la década de los 90 proliferaron las innovaciones en este campo. Lycos, por ejemplo, fue el primero en permitir a los usua-rios buscar dos palabras que se encontraran cerca dentro de una pági-na web, mientras que AltaVista ofreció la posibilidad de buscar me-

Casi tan pronto como hubo buscadores, hubo gente que intentó aprovecharlos empujando sus páginas web a los primeros puestos de las listas de resultados: un proceso que ha significado que, a su vez, cada empresa de buscadores ha tenido que refinar sus métodos para mantenerse un paso por delante de los tramposos. En los casos más llamativos, había quien intentaba generar una cantidad enorme de enlaces a su propia web colgándolos por las páginas de mucha otra gente, o podían intentar envolver su página con muchas de las palabras más buscadas en la red, como sexo o dinero, o nombres de personas famosas. La línea entre «optimización en los buscadores», como se llama al intento de colocar una página web en los primeros puestos de la búsqueda, y la trampa pura y dura puede ser muy fina. Y un motivo por el que los detalles exactos de los algoritmos tienden a guardarse celosamente es que intentan que resulte lo más difícil posible que la gente manipule los resultados y consiga obtener niveles potencialmente muy valiosos de atención en la red.

Intentar hacer trampas

001-222 50 ideas digital.indd 42 22/02/2012 16:12:19

43 búsquedas

dios, como imágenes y vídeos. Fue, sin embargo, un proyecto de in- vestigación que iniciaron en Stanford University, en enero de 1996, dos alumnos llamados Sergey Brin y Larry Page, el que daría la mayor innovación en este campo: un algoritmo que llamaron PageRank.

El PageRank era una manera de medir la importancia de cualquier página web concreta contando automáticamente la cantidad de pági-nas web que conectaban con ella, y constituía la base del buscador experimental de Brin y Page, Google. En 1998, Google se constituyó en sociedad, ha seguido perfeccionando su algoritmo PageRank desde entonces y, en este proceso, ha llegado a dominar unas tres cuartas partes del mercado mundial de buscadores de Internet. Sin embargo, buscadores rivales siguen activos en todo el mundo, y para todas las empresas activas en el sector, intentar ofrecer resultados de búsqueda de buena calidad frente al siempre creciente Internet exige una enor-me cantidad de tiempo, esfuerzo e innovación.

La idea en síntesis:los datos solo son útiles si puedes 

encontrarlos

«Hay quien dice que Google es Dios. Otros dicen que Google es Satanás. Pero

si creen que Google es demasiado poderoso, recordad que... lo único que hay

que hacer es un clic y recurrir a otro buscador.»

sergeybrin

001-222 50 ideas digital.indd 43 22/02/2012 16:12:19

44 Haciaelpresentedigital

Los primerísimos días de Internet, antes de la existencia de la World Wide Web, estuvieron configurados por una minoría informatizada, y este equilibrio de poder siguió hasta los días de la primera web, cuyos usuarios pioneros eran a menudo personas ya familiarizadas con la in-formática. Muchos usuarios «corrientes», atraídos por la facilidad de uso de la red, tendían a navegar y consumir contenidos en vez de crear-los ellos mismos.

Eso fue cambiando paulatinamente gracias a la evolución gradual de herramientas más potentes y accesibles basadas en la red, que permi-tía a todos sus usuarios convertirse en participantes activos del mundo virtual. Esto era algo para lo que, desde el principio, Berners-Lee ha-bía diseñado la red, pero que precisaba mantener cierta masa crítica de accesibilidad antes de poder hacerse realidad.

Llegaría con la evolución gradual de una combinación de tecnologías y actitudes, cuya representación tal vez más influyente sería el Con-greso Web 2.0 organizado por el experto en tecnologías Tim O’Reilly, celebrado en San Francisco en 2004, que se propuso explorar «cómo la web ha evolucionado hacia una robusta plataforma para la innova-ción a través de muchos medios y dispositivos —desde el teléfono móvil hasta la televisión, desde el teléfono hasta el buscador». La cla-

10  Web 2.0Unos años más tarde de que lo que se conoció como el «crash de las punto.com» frustrara muchos sueños digitales, la idea de que la web entraba en una «segunda fase» empezó a ganar terreno. Lo que describía el término usado para describirla —Web 2.0— no era tanto un avance tecnológico, como un cambio general en el porqué y el cómo la gente interactúa online. En su primera década, la web fue vista primariamente como una herramienta para encontrar y compartir información. La Web 2.0 describía una cultura digital que era cada vez más activa y más omnipresente: un lugar en el que los instrumentos para colaborar, hacer vida social, compartir y crear estaban al alcance de todos.

cronología1999 2001 2003 2004 2005Se introducen las fuentes RSS Fundación de la Wikipedia Se acuña el término social

bookmarking [favorito]Primer congreso de la Web 2.0 Fundación de la página YouTube para

compartir vídeos

001-222 50 ideas digital.indd 44 22/02/2012 16:12:19

45 Web2.0

ve de la respuesta estaba en el usuario: girando alrededor de la capaci-dad de buscar, crear, recopilar, compartir y categorizar contenidos, interconectar estas actividades, y hacerlo todo en un entorno virtual cada vez más rico.

Creación colectiva Una de las técnicas creativas centrales en el corazón de la Web 2.0 es el weblog, o blog —una plataforma para que todos y cualquiera de nosotros pueda publicar sus palabras online, pero también un foro para comentar y dialogar y para la cultura cada vez más activa de seguir y responder a las acciones de los demás por la red—. Eso es posible gracias a aplica-ciones de conexión como los rea-ders, que recopilan en una página las actualizaciones de la selección personal de un usuario de la red de sus páginas favoritas.

Esta cultura de la facilitación alre-dedor de los blogs es importante, ya que fue la aparición de estas herra-mientas —el etiquetado para indi-car el contenido de las entradas de un blog, los comentarios para dialo-gar y compartir, los feeds que permi-tían una distribución más fácil, pro-gramas de terceros diseñados para recopilar los blogs favoritos— lo que estimuló una cultura virtual de la participación masiva.

Tal vez el ejemplo más influyente de esta participación fue introduci-do en 2001: la enciclopedia virtual

El etiquetado es una de las maneras más sencillas de clasificación digital: las palabras o frases se asocian con una página o un fragmento de información, y estas «etiquetas» (tags) se utilizan entonces para ayudar a los demás a entender de qué va esta información. Este proceso figura en el centro de muchas innovaciones asociadas con la Web 2.0, puesto que permite a millones de usuarios de Internet generar colectivamente una imagen de cuáles son los temas clave de todo, desde los blogs hasta los libros, las noticias y los enlaces: una estructura en la que luego podemos buscar, agregar, comparar, compartir y usar para crear una imagen global de las maneras en que las distintas páginas web y los fragmentos de contenido generado por los usuarios se relacionan entre ellos y con el mundo.

Etiquetar el mundo

«Si tu público objetivo no te está escuchando, la culpa no es

de ellos; es tuya.»sethgodin,smallisthenewbig

cronología1999 2001 2003 2004 2005Se introducen las fuentes RSS Fundación de la Wikipedia Se acuña el término social

bookmarking [favorito]Primer congreso de la Web 2.0 Fundación de la página YouTube para

compartir vídeos

001-222 50 ideas digital.indd 45 22/02/2012 16:12:19

46 Haciaelpresentedigital

Wikipedia, iniciada con el objetivo expreso de convertirse en una fuente de referencia universal creada y mantenida exclusivamente mediante el esfuerzo de voluntarios, y abierta a todo aquel que quiera colaborar. La idea de una wiki, o base de datos virtual a la que todo el mundo puede añadir entradas e información, está de por sí esencial-mente conectada a la de la Web 2.0: derivada de la palabra hawaiana que significa «rápido», la primera fue lanzada en 1995.

En la década transcurrida desde su fundación, la Wikipedia se ha con-vertido en emblema del potencial colaborador de la web: del hecho de, como diría Tim O’Reilly, «aprovechar la inteligencia colectiva». Es una tendencia que se extiende ampliamente por casi toda historia de éxito importante asociada con la Web 2.0: desde la capacidad de Google de medir la estructura de enlaces de la web con el fin de opti-mizar sus resultados de búsqueda, hasta la integración por parte de Amazon de las opiniones, los comentarios y las recomendaciones de los lectores en la estructura básica de su página.

El aspecto social Otro mantra de la Web 2.0 es su poder de ex-pansión viral; es decir, la difusión de una idea no gracias al impulso del marketing por parte de sus creadores, como en el antiguo mundo de los medios, sino gracias a la distribución activa hecha por el públi-co. Esencial para este proceso virtual ha sido el desarrollo de numero-

El RSS (por Really Simple Syndication) nació en 1999 y es uno de los web feeds («fuentes web») más populares —una manera de hacer accesible automáticamente contenidos e información de una página web para que otras páginas la distribuyan—. El sencillo principio de permitir que el material sea extraído automáticamente para todo, desde blogs hasta noticias y páginas de medios distintos, era una parte importante del proceso de colaboración y síntesis de la Web 2.0. Los feeds facilitaban la posibilidad de seguir y distribuir contenido desde muchas otras páginas, y de automatizar el proceso de consultar y clasificar las actualizaciones. Equipado con tecnología de distribución, la cantidad de páginas que cualquier usuario de la red podía monitorizar con regularidad aumentaba exponencialmente.

Distribución realmente sencilla

«Una parte esencial de la Web 2.0 es aprovechar la inteligencia colectiva,

convirtiendo la web en una especie de cerebro global.»

timo’reilly,2005

001-222 50 ideas digital.indd 46 22/02/2012 16:12:19

47 Web2.0

sas herramientas y plataformas sociales conectadas: desde páginas de «social bookmarking» («marcadores sociales») como Digg (presentada en 2004), en la que los usuarios cuelgan enlaces a noticias y votan sobre lo interesantes que son, hasta las mismísimas redes sociales, que empezaron a florecer con la fundación de Friendster en 2002 y desde entonces han llegado a dominar buena parte de la web gracias al éxito apabullante de Facebook, fundado en 2004 y que a principios de 2011 tenía ya más de 600 millones de usuarios.

Si todas estas fuerzas suponen una transformación a lo largo de la pri-mera década de la web que realmente merezca la etiqueta 2.0 es tema de discusión —a Tim Berners-Lee, entre otros, le disgusta la frase—, pero es indiscutible que marcan un aumento enorme de la influencia del poder de los usuarios de la red como participantes activos en la cultura digital; una idea consagrada en la teoría de la Larga Cola (Long Tail theory), que dice que la mayor parte de un mercado no está hecho de unos pocos éxitos rotundos, sino por una inmensa cantidad de productos e ideas nicho.

A medida que los medios sociales y una gran proliferación de aparatos en red empezaron a llevar la red hacia su siguiente etapa, el legado de la Web 2.0 es evidente, tal vez por encima de todo, en un cambio de suposiciones tan fundamental que hoy día se da por sentado: que todo aquel que participa de la red tiene voz y un papel activo que debe desempeñar —para bien o para mal— en la configuración de la cultu-ra digital.

La idea en síntesis:la interacción y la 

colaboración son un nuevo criterio global

001-222 50 ideas digital.indd 47 22/02/2012 16:12:19

48 Haciaelpresentedigital

Los códigos de comportamiento ya existían en Internet mucho antes de que se inventara la World Wide Web. Los primeros contactos por la red se centraban en el correo electrónico, los foros de discusión y las noticias. La palabra netiqueta (netiquette) se utilizó durante buena parte de la década de 1980 como descripción en tono de broma, y tuvo un papel en guías populares de conducta que reflejaban con iro-nía algunos hábitos antisociales primitivos de la red, como formar co-mentarios con firmas demasiado largas y elaboradas, mandar cientos de copias de un e-mail, escribir con torpeza y usar títulos absurdos en la línea destinada a describir el «asunto» de un mensaje.

El primer documento que utilizó explícitamente la palabra netiqueta como intento de consagrar lo que significaba el buen comportamien-to en el joven Internet apareció en 1995. Introducido por Intel Cor-poration, se proponía informar a la rápidamente creciente comunidad de usuarios nuevos de Internet de algunos de los protocolos y las con-venciones que se habían establecido durante los primeros años del cre-cimiento de Internet. En concreto, dividía el uso de Internet en tres categorías principales —la comunicación entre dos usuarios, la comu-nicación de uno a varios, y los servicios de Internet—, y daba una se-

11  Netiqueta¿Cómo debemos tratar a las personas que conocemos por la red? Inevitablemente, aplicamos normas y convenciones distintas cuando interactuamos con otras personas por Internet, en vez de hacerlo en persona. Tal vez por encima de todo, cuando no tenemos que tratar con alguien cara a cara tenemos un comportamiento más libre: somos más capaces de mostrarnos descorteses, displicentes o bobos, pero también de ser altruistas, cooperadores o solidarios. A medida que Internet y la cultura digital han ido creciendo, la idea de fomentar el comportamiento positivo en la red se ha ido imponiendo con ellos. Es algo que queda resumido en la idea de una cortesía no escrita de comportamientos en la red, conocida como «netiqueta».

cronología1983 1992 1995 2007 2008Primera referencia a un documento de netiqueta

Primera descripción del trolling en Internet

Intel publica sus Reglas de Netiqueta

Código de Conducta para bloggers California aprueba una ley contra el ciberacoso

001-222 50 ideas digital.indd 48 22/02/2012 16:12:19

49 netiqueta

rie de consejos tanto de carácter general («Sé conservador con lo que mandas y progresista con lo que recibes») como concreto («Utiliza las minúsculas. LAS MAYÚSCULAS SUENAN COMO SI ESTUVIE-RAS GRITANDO») basados en las normas establecidas por los pri-meros usuarios de Internet.

Con el tiempo, a medida que Internet y luego la web se fueron ex-pandiendo en varios órdenes de magnitud, estas normas dieron paso a algo a la vez más vago y más importante: la idea de que el potencial positivo del ciberespacio solo podría ser realidad si se observaban ciertas normas de comportamiento ético, basadas no solo en conven-ciones de cortesía relacionadas con la comunicación, sino también en una voluntad más general de no maltratar las que tal vez sean las características más esenciales de las interacciones virtuales: el anoni-mato y la multiplicidad (es decir, la facilidad de reproducción y dis-tribución).

Flame, griefers y trolls Una de las primeras actitudes relaciona-das con la conducta virtual que se sigue usando hoy es el flaming: colgar contenidos potencialmente incendiarios, originariamente en uno de los primeros foros de opinión de Internet. Intentar excitar los incendios publicando comentarios que incitan al contenido extremo

Precisamente porque copiar la mayoría de material de la red es absurdamente fácil, el plagio y la falta de reconocimiento de la autoría ajena —ya sea transmitiendo páginas web enteras copiadas como si fueran trabajo propio, o sencillamente obviando mencionar al autor de una cita o idea— son dos de las faltas más comunes a la netiqueta. De manera similar, teniendo en cuenta el carácter público de buena parte de Internet, la falta de respeto a la privacidad virtual de los demás

puede considerarse un atentado grave a la confianza: publicar direcciones de e-mail o correspondencia privadas, por ejemplo, o simplemente copiar abiertamente a un gran número de desconocidos cierta correspondencia. De manera más trivial, los e-mails supuestamente destinados a una persona que accidentalmente se mandan a otras son una de las faltas —potencialmente embarazosas— más corrientes de netiqueta en el mundo digital.

Privacidad y plagio

cronología1983 1992 1995 2007 2008Primera referencia a un documento de netiqueta

Primera descripción del trolling en Internet

Intel publica sus Reglas de Netiqueta

Código de Conducta para bloggers California aprueba una ley contra el ciberacoso

001-222 50 ideas digital.indd 49 22/02/2012 16:12:20

50 Haciaelpresentedigital

se conoce como flame-baiting [provocar incendios?] y puede provocar una «guerra de flames» entre otros miembros de la discusión.

Tal comportamiento se ha trasladado, como era predecible, desde los foros de discusión hasta los chats en directo, las redes sociales, los video-juegos y la mayoría de espacios virtuales en los que la gente interac-túa. Hoy día, el término genérico griefers se aplica a aquellos que pe-netran en el ciberespacio —y en los ciberjuegos en particular— con la intención concreta de molestar a los demás. Un subconjunto espe-cial y persistente de los griefers son los llamados trolls —cuando al-guien finge ser un participante cándido y normal en una conversación virtual para ganarse la confianza de los demás y luego molestarles.

Sock puppets y astroturfing Una falta cada vez más común a la netiqueta es la marca de falsedad interesada en utilizar sock puppets («marionetas») —identidades virtuales ficticias que permiten a las personas crear la falsa impresión de que otras personas las apoyan, a ellas o a su trabajo—. Un uso moderno habitual de puppets podría consistir en un autor que cuelga varias críticas favorables de su pro-pia obra en Amazon bajo identidades ficticias; o, un caso más grave, la creación de múltiples identidades ficticias en blogs políticos con el fin de introducir un punto de vista particular, o de cargarse las postu-ras contrarias.

Precisamente debido a la facilidad con que puede perpetrarse, este tipo de engaño es una falta grave contra uno de los principios más básicos subyacentes en la netiqueta: el compromiso con el debate abierto y honesto. Una práctica relacionada con el uso de puppets es

Muchas infracciones de la netiqueta podrían agruparse bajo el apelativo de ciberacoso: el comportamiento virtual que distingue a individuos concretos y los somete al abuso, y que también puede conllevar el ciberacecho por distintos sitios y foros. Una combinación de anonimato y la creciente universalización de los aparatos con conexión a Internet, como los smartphones, pueden hacer del ciberacoso algo más habitual y más difícil de esquivar que el acoso en el mundo real, en especial entre los

usuarios más jóvenes de la red. A medida que va aumentando la consciencia de la gravedad potencial de esta conducta se va definiendo en muchos países una legislación específica que convierte las amenazas y la persecución online en un comportamiento ilegal. Publicar en la red información falsa y difamatoria sobre otros, además de un atentado grave contra la ética en Internet, también es una actitud que cada vez se toma más en serio y se persigue como delito grave en una sociedad cada vez más digitalizada.

Ciberacoso

001-222 50 ideas digital.indd 50 22/02/2012 16:12:20

51 netiqueta

el astroturfing —algo que no es exclusi-vo del mundo digital, pero que prevalece especialmente en él, por lo que se crea una falsa impresión de movimiento «de base» en apoyo de algo, haciendo pasar campañas preconcebidas de publicidad o promoción como espontáneas—. Desde los productos comerciales hasta la política, la espontaneidad puede ser demasiado fá-cil de simular.

Códigos de conducta Uno de los primeros códigos positivos de conducta que adquirió más influencia en la red moderna fue el llama-do Código de Conducta de los bloggers propuesto por Tim O’Reilly en 2007, como reacción a la falta de sinceridad, de civismo y de hones- tidad que perjudicaba el discurso honesto y productivo en muchos blogs... y, por supuesto, del conjunto de la web. El código de O’Reilly estaba destinado a los bloggers, pero en sus siete propuestas encuadra la mayoría de principios básicos de la integridad virtual.

Estos son: asumir la responsabilidad de nuestras propias palabras y de las palabras de otros que permitimos publicar en nuestra página; indi-car nuestro grado de tolerancia a los comentarios abusivos para poder evitar contenidos que pudieran ofendernos; no tolerar automática-mente los comentarios anónimos, puesto que pueden potenciar el abuso; ignorar más que «alimentar» a los trolls y otros provocadores; desconectar una conversación si el ciberacoso se convierte en grave; enfrentarnos a las personas que sabemos que se comportan de manera poco ética en la red; y, finalmente, no decir nada digitalmente que no dirías cara a cara.

Este último punto es tal vez el más revelador de todos y el mejor resu-men que podemos encontrar de la netiqueta: si deseamos formar parte de una cultura digital civilizada, tenemos que tratarla como trataría-mos cualquier entorno civilizado y mantener los mismos criterios que gobiernan las interacciones decentes entre personas, las cuales, ya ocurran sus interacciones en un medio virtual o físico, siguen siendo igual de reales.

La idea en síntesis:una cultura virtual sana es una cultura 

ética

«Por muy bien que conozcas las normas de la netiqueta, al final siempre acabarás ofendiendo a alguien que no las conozca.»donrittner

001-222 50 ideas digital.indd 51 22/02/2012 16:12:20

52 Haciaelpresentedigital

La palabra weblog apareció por primera vez en 1997, seguida al cabo de dos años por su simplificado vocablo «blog». Sin embargo, las ideas detrás del blogging habían ido evolucionando junto con los inicios de Internet a lo largo de toda la década de 1990. Antes de 1990, la ma-nera habitual de compartir ideas por el incipiente Internet era a tra-vés de grupos de noticias, que básicamente funcionaban como foros de discusión moderados; los miembros podían colgar comentarios e ideas, que luego serían compartidos con los otros miembros del grupo, previa aprobación. Pero a medida que la World Wide Web fue ganan-do usuarios, empezó a desarrollarse la idea de escribir diarios virtuales: la gente empezó a dedicar espacios en su página web para colgar con-tenidos que se actualizaban regularmente sobre lo que iba ocurriendo en su vida. Uno de estos autores de diarios pioneros fue un estudiante del Swarthmore College de Pennsylvania, Justin Hall, que creó una página web llamada «Justin’s Links from the Underground» en 1994 y empezó a dedicar cada vez más espacio de ella a contar a sus visitantes lo que le ocurría en la vida.

Las páginas web personales que se actualizaban con regularidad al es-tilo de un diario resultaban muy atractivas tanto para los lectores como para los escritores, y se hicieron cada vez más populares hacia finales de la década de 1990, un desarrollo reflejado en la aparición

cronología1994 1997 1999 2003 2005Aparece el primer diario virtual

Primer uso de la palabra weblog

Fundación de LiveJournal Google adquiere blogger.com Fundación de The Huffington Post

12  BloggingLa idea de que cualquiera que quisiera hacerlo podía escribir un weblog, o blog, fue uno de los aspectos básicos del radicalismo de los primeros tiempos de Internet. La publicación de textos era algo que históricamente solo lograban una serie de escritores selectos, mientras que en los inicios de la web, crear una página web era una habilidad que solo poseían una minoría de usuarios. La cultura del blog cambió esta idea y puso en manos de todos los usuarios de la red una manera sencilla de publicar sus propias palabras e ideas online. Por primera vez en la historia, todo el mundo podía ser autor.

001-222 50 ideas digital.indd 52 22/02/2012 16:12:20

53 blogging

de las primeras herramientas específicas para el blogging. En octubre de 1998 se lanzó el ser-vicio Open Diary, que permitía a los usuarios mantener un blog sin necesidad de tener una página web. Poco después de su aparición, Open Diary introdujo una de las posibilida-des que se convertiría en parte esencial de la cultura del blogging: los lectores podrían col-gar comentarios en respuesta a cualquier entrada del blog, lo que per-mitía que cualquier conversación se desarrollara públicamente en respuesta a los textos de alguien, y posibilitaba a los redactores de blogs que vieran por primera vez el tipo de reacción que generaban sus textos.

Nuevos papeles El desarrollo del blogging como una herra-mienta abierta y accesible fue impulsada por el lanzamiento de servi-cios como el LiveJournal en marzo de 1999 y el blogger.com en agosto del mismo año. A medida que el blogging se fue imponiendo en la consciencia popular, empezaron a aparecer géneros diferenciados aparte del simple formato de diario. Los blogs políticos fueron algunos de los primeros que obtuvieron una amplia difusión, y 2000 y 2001

En los últimos cinco años, algunos blogs han adquirido un perfil y una influencia del nivel de los mayores periódicos y presentadores de noticias, por no mencionar que han adoptado muchos de los rasgos de los medios periodísticos profesionales. El blog más leído del mundo, la página política progresista The Huffington Post, tiene hoy una plantilla de unas sesenta personas, con cuatro versiones regionales en Estados Unidos. Engadget, el blog de tecnología más importante del mundo, opera en nueve idiomas distintos en el mundo y es probablemente el medio periodístico consagrado a la tecnología más influyente del mundo, seguido de cerca por la red TechCrunch. Mientras, el blog TMZ de cotilleos periodísticos y sobre personajes famosos ha destapado algunas de las noticias más importantes de los últimos años, como el arresto de Mel Gibson y la muerte de Michael Jackson.

El poder de los blogs

cronología1994 1997 1999 2003 2005Aparece el primer diario virtual

Primer uso de la palabra weblog

Fundación de LiveJournal Google adquiere blogger.com Fundación de The Huffington Post

«Un blog es, en muchos sentidos, una conversación continua.»andrewsullivan

001-222 50 ideas digital.indd 53 22/02/2012 16:12:20

54 Haciaelpresentedigital

vieron la fundación entre otros del blog de Andrew Sullivan, antiguo editor de The New Republic, The Daily Dish, y del blog del profesor de Derecho Glenn Reynolds, Instapundit. A diferencia de la prensa escri-ta, «el blogging en directo permitía el comentario político instantá-neo de los eventos clave, mientras que la propia estructura de los blogs animaba a pasar a un nivel de comentario, cita, debate y refe-rencia políticos integrados ahora en el material virtual compartido por los bloggers.

Pronto proliferaron blogs de tipo cultural, de cotilleo, tecnología o temas concretos, y a menudo se vieron capaces de superar a los me-dios tradicionales en cuanto a velocidad, franqueza y atención de es-pecialista en los detalles. Los blogs adquirieron influencia a la vez que crecía el número de usuarios, un proceso catalizado por las estructuras y convenciones de la Web 2.0 de comentar, etiquetar y compartir en-tradas y blog rolls: el hábito de incluir en el blog propio un listado de los blogs favoritos.

En 2004, «blog» fue seleccionada como palabra del año por el dicciona-rio Merriam-Webster. A esas alturas, el blogging ya se consideraba como algo que se acercaba a un medio por sí solo, que iba desde aquellos que lo utilizaban simplemente como diario, o como estrategia de marketing, hasta los que lo trataban como una forma seria de arte o comentario. Tal vez también resultara inevitable que el arte de colgar comenta- rios inflamatorios en los blogs —trolling— se hubiera establecido fir-memente como un arte digital paralelo.

A mediados de la primera década de 2000 ya se estaban creando co-munidades apasionadas alrededor de blogs populares —o incluso que creaban blogs comunitarios, como en el caso de la página de noticias tecnológicas Slashdot, cuyas historias se presentan y son votadas por los lectores—, mientras que el blogging se convertía cada vez más en una vía para que las figuras políticas y culturales se comunicaran di-rectamente con su público.

El autor británico Neil Gaiman empezó un blog en 2001, y obtuvo una plétora de seguidores; el parlamentario británico Tom Watson empezó uno en 2003, siendo una de las primeras figuras de la política británica en hacerlo.

«Mientras Internet es accesibilidad de información, blogging es hacer que

la creación de información sea accesible a todo el mundo.»

georgesiemens,2002

001-222 50 ideas digital.indd 54 22/02/2012 16:12:20

55 blogging

Algo más que palabras A medida que el contenido de la red se ha ido enriqueciendo, los blogs también se han ido alejando del mo-delo basado solamente en las palabras. El arte y la fotografía son hoy día temas habituales, como lo son los blogs que aprovechan el espacio esencialmente sin límites ofrecido por la publicación online para ha-blar de un tema especializado con profusión de detalles a través de la palabra, la imagen, el sonido y el vídeo. Las grandes reseñas de pro-ductos en los blogs modernos de tecnología incorporan a menudo to-dos estos medios y pueden llegar a miles de palabras... y a miles de comentarios.

El audioblogging —en forma de archivos audio descargables, conocidos a menudo como podcasts— es otra manera de llegar a un público con-creto: un arte importante, teniendo en cuenta que, solo en lengua in-glesa, en todo el mundo hay actualmente más de cien millones de blogs activos. La influencia del blogging ha sido tan potente, de hecho, que puede que sea cada vez más complicado trazar una línea entre los blogs y la presencia virtual de los circuitos tradicionales de prensa: casi todos ellos cuentan hoy día no solo con blogs, sino con casi todas las innovaciones que los blogs han contribuido a popularizar, desde los comentarios hasta la difusión de actualizaciones.

La idea en síntesis:actualmente 

cualquiera puede  ser autor

El sitio más famoso de microblogging, Twitter, ofrece una imagen nítida del concepto: en vez de colgar entradas detalladas en forma de diario virtual, el microblogging invita a los usuarios a colgar actualizaciones extremadamente breves (140 caracteres es la extensión máxima en el caso de Twitter) de su estatus que se publican al instante, formando una cadena de palabras y enlaces en tiempo real. Teniendo en cuenta la madurez del blogging como medio, hay comentaristas que consideran el microblogging la imagen de su futuro: se integra perfectamente en las redes sociales, es adecuado para períodos muy breves de atención y para los dispositivos móviles, y ofrece una inmediatez que puede hacer quedar el blogging diario como un medio lento.

Microblogging

001-222 50 ideas digital.indd 55 22/02/2012 16:12:20

56 Haciaelpresentedigital

La práctica de recopilar información es muy anterior a la cultura digi-tal. Publicaciones como el Reader’s Digest se podrían considerar como una recopilación de ideas y contenidos escritos, mientras que la an- tigua tradición de publicar almanaques, misceláneas y anuarios de-muestra la evidente utilidad de acumular información en un lugar. Como sucede tan a menudo, lo que la versión digital de la recopila-ción ha conllevado es un incremento exponencial en la complejidad y la escala de este proceso, junto con el potencial de su creciente au-tomatización.

Hay dos tipos fundamentales de agregación digital: la agregación a medida, tomada de fuentes de información elegidas por usuarios indi-viduales, y la agregación centralizada, que los usuarios individuales no controlan, pero que es elegida ya sea por un usuario o varios en parti-cular o por un proceso automatizado.

La agregación a medida Mucho antes de que existiera la web, los usuarios de Internet podían acceder a una forma muy primitiva de agregación en forma de servicios de «lectura de mensajes» como el GNUS —un programa muy sencillo desarrollado en 1988 que, además de consultar la cuenta de correo del usuario, podía también suscribirlo a grupos de noticias de su elección, lo que representaba que este reci-bía periódicamente actualizaciones de noticias en una carpeta separa-da de los correos entrantes.

13  AgregaciónEn una época en la que la información está cada vez más al alcance de todos en cantidades abrumadoras, filtrar y convertir en útil toda esa información es una tarea de vital importancia. Agregar significa simplemente agrupar en un solo lugar y, junto a la capacidad de buscar datos, se ha convertido en una de las ideas digitales más importantes de todas. También puede resultar controvertida, y hay quien dice que la facilidad de simplemente seleccionar, en vez de crear, la información virtual está ayudando a llevar al cierre a creadores de contenidos originales como los periódicos.

cronología1988 1997 2003 2006 2010Introducción de GNUS Aparece la página web del Drudge Report Lanzamiento del NewsGator Fundación del BuzzFeed Rupert Murdoch introduce muros

de pago en sus periódicos

001-222 50 ideas digital.indd 56 22/02/2012 16:12:20

57 agregación

Servicios como el GNUS funcionaban más bien como una moderna lista de mailing: una vez te habías apuntado, ibas recibiendo mensajes hasta que te dabas de baja. Pero hacia el final de la primera década de la existencia de la web, las cosas habían empezado a parecer más com-plicadas, y los programas básicos de lectura de noticias empezaron a integrarse cada vez peor con muchos de los contenidos que se genera-ban online: los blogs y las páginas especializadas y de noticias que ge-neraban información frecuente y compleja, incluyendo imágenes, en-laces, sonidos y nuevos niveles de metadatos que los clasificaban por tipos y temas.

La respuesta clave a ello llegó en 1999 en forma de una especifica-ción llamada RSS (por Really Simple Syndication), que se des-cribe brevemente en el capítulo 10. El RSS podía coger el conte-nido de una página web y pro-ducir una página de códigos en formato XML, junto con un tí-tulo, una descripción y un enlace al contenido original. Esta codifi-cación XML ahora podía incluirse y mostrarse en una página web separada, para la que se acuñó el término «agregador». Los usua-rios creaban una cuenta gratuita en una página de agregación, y luego —a medida que la popula-ridad de la especificación RSS fue despegando— se suscribían para recibir regularmente una carpeta de actualizaciones de contenidos de los blogs, las noti-cias y otros sitios de su elección.

En 2003, los agregadores de tipo RSS eran un fenómeno mayori-tario y formaban parte de la van-

cronología1988 1997 2003 2006 2010Introducción de GNUS Aparece la página web del Drudge Report Lanzamiento del NewsGator Fundación del BuzzFeed Rupert Murdoch introduce muros

de pago en sus periódicos

En abril de 2010, el magnate de la prensa Rupert Murdoch lanzó un ataque insultante contra los buscadores y otros medios que ofrecían servicios de agregación de noticias, acusándolos de «apoderarse de noticias a cambio de nada» y de pinchar gratis una «mina de oro» virtual. Unos meses más tarde, unas cuantas de las publicaciones del grupo de Murdoch levantaron «muros de pago» (paywalls) alrededor de sus páginas web, impidiendo cualquier tipo de búsqueda, lectura o uso de su contenido virtual si no se era suscriptor. La estrategia de Murdoch puede haberse demostrado o no un éxito comercial, pero sus preocupaciones reflejan las de muchos en el sector tradicional de la producción de noticias, que temen que la facilidad de la recopilación virtual y el atractivo de las páginas y servicios más populares de agregación signifiquen que el contenido original, que resulta muy caro de generar, se reutilice fuera de su contexto original, mermando así la posibilidad de sus creadores de recoger su beneficio o crédito.

Controversias en las noticias

001-222 50 ideas digital.indd 57 22/02/2012 16:12:20

58 Haciaelpresentedigital

guardia de la Web 2.0. En agosto de ese año, un artículo aparecido en la revista Wired anunció que «ciudadanos obsesivamente conecta-dos a la web» estaban empezando a decantarse por «una nueva ge-neración de software, llamada newsreaders (“lectores de noticias”) o agregadores, que los ayudaba a gestionar la sobredosis de informa-ción».

Los primeros servicios de agregación RSS más populares eran el NewsGator y el SharpReader, ambos aparecidos en 2003. Hoy, la ca-pacidad de mostrar entradas tanto en el formato RSS como en el de su máximo rival, Atom, están integrada como elemento corriente en la mayoría de navegadores y clientes de e-mail. El moderno mercado de agregación se ha consolidado mucho, dominado por el servicio Google Reader —lanzado inicialmente en 2005— y con Bloglines en segundo lugar.

Páginas web de agregación No todos los usuarios de la web habrán usado, o ni siquiera se habrán tropezado, con servicios perso-nalizados de agregación. Sin embargo, hay mucha más gente que ha-brá experimentado las páginas web o servicios de agregación basados en la recopilación selectiva de contenidos para que los usuarios, sen-cillamente, los vean, en vez de elegirlos por ellos mismos.

Una de las primeras páginas web que causó un impacto agregando noti-cias fue Drudge Report, que se originó en 1996 como servicio de no-ticias del corazón, pero al año siguiente evolucionó a una página web en la que el editor de la newsletter, Matt Drudge, colgaría una selec-

La idea de la «dirección digital» —donde individuos o equipos editoriales aplican su criterio de selección de enlaces diarios— ha adquirido nueva fuerza gracias al ascenso de los medios sociales, y en especial gracias a Facebook y Twitter, que han facilitado muchísimo la actividad de seguir las recomendaciones de un individuo. Pero las redes sociales también han suplantado muchas de las funciones que los servicios de agregación a medida hacían antes, ayudando a los usuarios de Internet a seguir el rastro de todo lo que les interesaba en la

red. Actualmente, hablar de agregación es más probable que describa una forma de recopilación de datos automática o de servicio de análisis que esa forma antigua de lectura de las entradas de blogs. Sin embargo, están apareciendo más herramientas de agregación, mes a mes, para ayudar a los usuarios de redes sociales a gestionar estos servicios: desde las listas de elementos más retuiteados hasta los enlaces más compartidos, los trending topics o, simplemente, un resumen de lo que todos los demás han comentado sobre ti.

Tendencias sociales

001-222 50 ideas digital.indd 58 22/02/2012 16:12:20

59 agregación

ción diaria de titulares y enlaces a elementos de todo el mundo que le habían llamado la atención.

Otras numerosas páginas de agregación que han sido acogidas con éxito se basaron en la actualización regular de enlaces que reflejaban el gusto o criterio de un individuo o de un equipo editorial —desde populares núcleos culturales como Arts&Letters Daily, fundado por el filósofo Denis Dutton en 1998, hasta BuzzFeed, una página fundada en 2006 cuyo equipo de editores se especializa en captar el último grito en medios virales.

Automatización y expansión Las páginas de agregación con en-laces elegidos por editores especializados siguen siendo un servicio vir-tual popular. Pero, con diferencia, el mayor crecimiento en este terreno lo han experimentado los servicios automatizados y a través de redes so-ciales, basados en palabras clave, algoritmos y tendencias sociales.

El servicio de noticias de Google, por ejemplo, es un agregador que se basa enteramente en la búsqueda y el análisis automatizados de ten-dencias por miles de emisores de noticias en cualquier momento con-creto. Los sitios de «noticias sociales» como Digg y reddit, en cambio, agregan enlaces que recopilan —y luego votan— los lectores. Otras páginas, conocidas como scrapers, buscan automáticamente tipos con-cretos de páginas web cientos o miles de veces al día, y cuelgan sus resultados en un lugar para que los lectores los comparen: es un servi-cio que ha llevado al crecimiento de cientos de páginas de scraping especializadas, dedicadas a cualquier tema, desde la comparación de precios de compra hasta el cálculo de probabilidades en las apuestas, las ofertas de viajes o los precios de los coches. Hasta existe la agrega-ción de agregadores, como Popurls, una página que incluye los enla-ces más populares de otros servicios de agregación principales.

La idea en síntesis:reunir un universo 

de información en un solo lugar

«La sabiduría humana es la agregación de toda la experiencia humana, que constantemente acumula, selecciona y reorganiza su propio material.»

Josephstorey

001-222 50 ideas digital.indd 59 22/02/2012 16:12:20

60 Haciaelpresentedigital

Antes de que ni tan siquiera existiera Internet, en la década de 1960, los usuarios de los primeros sistemas informáticos institucionales ya se mandaban mensajes en tiempo real. Tal vez el rasgo más notable de las conversaciones alojadas en tales aparatos es también el más obvio: el hecho de que, por primera vez en la historia, las conversaciones que tenían lugar en tiempo real se hacían por un canal escrito en vez de hacerse por voz.

Las primeras formas de comunicación en tiempo real por ordenador te-nían también sus límites. La charla empezó a incluirse en la década de

1970 como orden corriente en la serie de ordenadores PDP (por Programmed Data Processor) —que en aquel momento era el hardware informático de gama media más utilizado en el mundo— pero solo para distintos usuarios conectados a una sola máquina, y sin diferenciar entre usuarios: los caracteres aparecían sencillamente a medida que se tecleaban, a una velo-cidad máxima de once por segundo, lo que significaba que las frases solapadas se mezclaban en la pantalla.

Internet Relay Chat A medida que se iba desarrollando la orden de «charla», empezó a incorporar usuarios en distintos aparatos, mien-tras que los primeros programas de chat como el ntalk o el ytalk permi-tían que las conversaciones incluyeran a más de dos personas. Sin em-bargo, fue en 1988 cuando llegaría uno de los programas llamado a definir la conversación virtual: se trataba del Internet Relay Chat, abre-

cronología1988 1996 1997 2004 2005 2009Invención del Internet Relay Chat

Lanzamiento del ICQ Lanzamiento de la mensajería instantánea de AOL

AOL introduce el videochat Lanzamiento de Google Talk Chatroulette llega al mundo virtual

14  ChatLa comunicación en tiempo real con otras personas puede parecer una de las funciones más evidentes de Internet —y una de las áreas en las que la tecnología tiene un papel menos importante que desempeñar a la hora de transformar una actividad tan fundamental—. Pero lo cierto es que las conversaciones virtuales han desarrollado una serie de importantes subculturas y, al mismo tiempo, han contribuido a la naturaleza del conjunto de la cultura digital.

«Por Internet, nadie sabe que

en realidad eres un perro.»

petersteiner,viñetadecómic,1993

001-222 50 ideas digital.indd 60 22/02/2012 16:12:21

61 chat

viado como IRC. Estaba basado en el modelo servidor/cliente, lo que significaba que cualquiera que quisiera usarlo tenía que instalar un clien-te IRC en su ordenador y luego utilizarlo para conectarse con un ser-vidor IRC en Internet. Más que trabajar sobre la base de las conversa-ciones individuales, el IRC trabajaba principalmente con la idea de «canales». Cada canal en un servidor tendería a centrarse en un tema concreto; conectar tu cliente IRC a un servidor significaba elegir sumar-se a un canal concreto, en cuyo caso podrías mirar y participar en un chat en vivo con todas las personas conectadas a aquel canal concreto.

El IRC también permitía ponerse aparte para «susurros» entre dos personas, pero fue su estructura basada en el canal, combinada con la apertura del protocolo —gracias al cual miles de personas por todo el mundo podían independientemente instalar servidores con canales alojados— lo que lo convirtió en una de las primeras demostraciones del poder de Internet más potentes y populares.

Antes incluso de que existiera la World Wide Web, miles de personas de todo el planeta ya hablaban por espacios virtuales comunes y com-partían sus conocimientos. Los canales IRC ofrecieron una de las pri-

cronología1988 1996 1997 2004 2005 2009Invención del Internet Relay Chat

Lanzamiento del ICQ Lanzamiento de la mensajería instantánea de AOL

AOL introduce el videochat Lanzamiento de Google Talk Chatroulette llega al mundo virtual

Las limitaciones y posibilidades que tienen las conversaciones entabladas por ordenador —junto a las de los mensajes por SMS— han dado lugar a numerosos neologismos y convenciones, muchos de ellos acrónimos para ahorrar tiempo y espacio: desde el infame LOL para reírse (del inglés laughing out loud) hasta el funcional BRB (por be right back) y el astutamente críptico DAMHIKIJKOK (por don’t ask me how I know, I just know, ok?). También parte del vocabulario online son erratas

tipográficas que han adoptado estatus de palabra por derecho propio, como el pwn por own (que quiere significar ganar un juego o una discusión) y formulaciones que empezaron en la década de 1980 como manera deliberada de evitar la censura, pero desde entonces han adquirido vida propia: desde «n00b» para significar «novato» o persona sin experiencia, hasta el «l33t» para designar a alguien de la «élite» que realmente sabe qué demonios está pasando y se está diciendo.

Un mundo feliz... de palabras

001-222 50 ideas digital.indd 61 22/02/2012 16:12:21

62 Haciaelpresentedigital

meras visiones que muchos ciudada-nos estadounidenses tuvieron, por ejemplo, de la vida en la Rusia co-munista. Incluso hoy, el IRC sigue siendo popular en todo el mundo, con su propia red de páginas, busca-dor, molestos robots y usuarios in-fectados, convenciones y comuni-dades.

Mensajería instantánea A diferencia del IRC, los sistemas de mensajería instantánea se basan en la comunicación privada, normal-mente entre dos personas o entre un grupo reducido de personas in-vitadas. Como en el correo electró-nico, se tiende a actuar sobre una base de listas personales de amigos y contactos, funcionando de fon-do tras otros servicios del ordenador e informando al usuario a medida que sus amigos se conectan a la red y están disponibles para conversar.

Los primerísimos sistemas de men-sajería en tiempo real de la década de 1960 y 1970 se podrían consi-

derar como una forma de mensajería instantánea; pero fue después del lanzamiento de la web, a mediados de 1990, cuando estos sistemas empezaron a convertirse en una forma dominante de comunicación virtual, gracias a la introducción de una serie de sistemas atractivos y fáciles de usar que ofrecían una visión más accesible de la charla onli-ne que el mundo comparativamente más austero y basado en el texto del IRC.

El primer servicio de mensajería instantánea que se extendió por Inter-net se lanzó en 1996. Llamado ICQ (pronunciado I seek You, como «te busco»), se distribuyó gratuitamente por la red y, además del chat, ofre-cía servicios como el envío de archivos, la mensajería de texto a teléfo-nos móviles, juegos y directorio de usuarios. A ICQ le siguió en 1997 el programa Instant Messenger de AOL —conocido como AIM—, y fue ese programa de AOL el que decantó la mensajería instantánea como servicio del mercado de masas. Había empezado un boom, y a AIM le siguió rápidamente, en 1998, el servicio de mensajería de Yahoo! Y, en 1999, el de Microsoft.

Una de las evoluciones más recientes del chat virtual es la página de base rusa Chatroulette. Introducida en 2009 y funcionando enteramente desde dentro de un servidor de red, conecta a usuarios de manera arbitraria entre ellos, usa una webcam (suponiendo que la gente tiene webcam y permite al sitio acceder a ella) para establecer una videoconferencia en vivo entre dos personas en cualquier momento. Los usuarios pueden desconectarse del chat y «volver a la rueda» en cualquier momento, para encontrarse en otra conversación al azar. Desde unos pocos cientos de usuarios los primeros meses, la página pasó a más de un millón al año de su lanzamiento y —a pesar de toda la controversia desatada por algunas de las travesuras menos graciosas de los que se conectaban— demostró de nuevo la capacidad que tiene Internet de alimentar el interés más fundamental de los seres humanos: el de conocer y comunicarse con otras personas.

Jugar al Chatroulette

001-222 50 ideas digital.indd 62 22/02/2012 16:12:21

63 chat

Hablar en todos los demás sitios Con la creciente popularidad de los servicios de mensaje-ría durante la segunda mitad de la década de 1990, la posibilidad de chatear por la red se empezó a esperar cada vez más en otros contextos. Los video-juegos fueron posiblemente la ubicación más sig-nificativa y culturalmente rica, y fueron una de las primeras tecnologías informáticas que permitie-ron a la gente interactuar en tiempo real por la red... ya en la década de 1980 en el caso de los mundos virtuales basa-dos en el texto.

A finales de la década de 1990, el chat en los juegos era una actividad floreciente por derecho propio, y muchos jugadores tenían sus IRC u otros servicios de chat dedicados paralelamente al juego con el fin de mantener el control de las conversaciones. Las «salas de chat» dedica-das a temas o asuntos concretos también proliferaban por la red, a veces añadiendo gráficos que añadían un contexto físico a las interacciones, aunque cada vez se veían más desplazados por el crecimiento de mundos virtuales hechos y derechos, y juegos con múltiples jugadores, con miles o hasta millones de jugadores hasta la primera década del siglo xxi.

Audio y vídeo Con la potencia cada vez mayor de los ordenado-res y la banda ancha de las conexiones a Internet, resultaba inevitable que la mensajería instantánea acabara incorporando servicios de au-dio y vídeo. AOL introdujo el videochat a su servicio de mensajería en 2004; Microsoft hizo lo mismo en 2005, y a esas alturas tanto el ví-deo como el audio ya se estaban convirtiendo en expectativas corrien-tes de todos los servicios de chat, junto con su integración en el e-mail y en otros servicios virtuales.

Actualmente, el chat en vivo se considera un servicio básico dentro de cualquier canal, desde los servicios de redes sociales hasta las he-rramientas de gestión de proyectos y los editores de documentación virtual, mientras que la videoconferencia está fácilmente disponible ya sea a través de servicios de mensajería o por aplicaciones específi-cas como Skype. Pero la mayoría de comunicaciones online siguen siendo escritas... y sigue llevando la marca singular de la historia del chat virtual.

La idea en síntesis:un nuevo medio 

exige nuevas maneras de hablar

«Internet: transformando la sociedad y dando forma al futuro a través del chat.»davebarry

001-222 50 ideas digital.indd 63 22/02/2012 16:12:21

64 Haciaelpresentedigital

Los usuarios de informática han compartido archivos desde que exis-ten cosas como los ordenadores y los archivos... y hace el mismo tiempo que los productores de programas o medios en particular in-tentan impedir que se distribuyan copias de sus obras por parte de una cultura de la infracción, la distribución y la burla de las formas digitales del copyright y la protección. Pero a medida que la World Wide Web iba ganando usuarios durante la década de 1990, el nú-mero de personas en todo el mundo con conexión a Internet, la ve-locidad de estas conexiones y la potencia de los ordenadores crecían también gradualmente. A medida que millones de personas en el planeta empezaban a almacenar un número creciente de archivos en formato digital en sus ordenadores, una masa crítica de archivos y capacidad informática se fue acumulando poco a poco, y el resultado fue la irrupción de programas diseñados específicamente para ayudar a las personas a compartir directamente sus archivos desde cualquier lugar del mundo.

Peer-to-peer Estos programas se conocieron como peer-to-peer por-que en vez de posibilitar que todos los usuarios pudieran acceder al contenido desde una sola ubicación central, les permitían localizar a

cronología1998 1999 2001 2003 2010EE.UU. aprueba la Digital Millennium Copyright Act Fundación de Napster Creación de BitTorrent Fundación de Pirate Bay El Reino Unido aprueba la Digital

Economy Act

15  Compartir archivos

La práctica de compartir archivos entre los usuarios de Internet llegó de manera más visible a la atención pública a finales de la década de 1990 y a principios de la de 2000, con la extendida adopción de los programas para compartir música..., algo que precipitó cambios profundos en toda una industria. Pero compartir archivos entre usuarios de Internet es una práctica más antigua y extendida que todo esto, y constituye una de las maneras más fundamentales en que la información digital se comparte y distribuye, además de representar un desafío continuo para modelos más antiguos de distribución, copyright y propiedad.

001-222 50 ideas digital.indd 64 22/02/2012 16:12:21

65 compartirarchivos

otro usuario o usuarios que tuvieran el archivo que buscaban y conec-tar directamente con ellos.

Tal vez el servicio peer-to-peer más famoso de estos principios fue el lan-zado en junio de 1999 por un estudiante de Boston. Llamado Napster, funcionó hasta julio de 2001, cuando fue clausurado por una orden judi-cial, por culpa de la cantidad inmensa de infracciones del copyright que había facilitado entre usuarios. En su momento álgido, Napster había per-mitido compartir 80 millones de archivos a 25 millones de usuarios. Ac-tualmente la marca funciona como servicio legal de descarga de música.

¿Cómo funcionaba exactamente el software sobre el que se sostenía Napster? Primero, el programa de Napster tenía que descargarse e ins-talarse en un ordenador. Abriendo el programa conectabas tu ordena-dor a un servidor central de Napster que contenía un listado central de todos los otros ordenadores con el Napster encendido y que esta-ban conectados a Internet en aquel momento. Había que escribir los detalles de la canción que se buscaba y el servidor Napster aportaba los detalles de cualquier otro usuario de Napster cuyo ordenador tenía esa canción en particular. Una vez seleccionado el archivo deseado, Napster podía entonces establecer una conexión directa entre tu or-denador y el ordenador que contenía ese archivo, para que pudieras proceder a su descarga.

cronología1998 1999 2001 2003 2010EE.UU. aprueba la Digital Millennium Copyright Act Fundación de Napster Creación de BitTorrent Fundación de Pirate Bay El Reino Unido aprueba la Digital

Economy Act

Uno de los principales peligros de participar en la puesta en común de archivos peer-to-peer es el riesgo de que haya archivos y programas adjuntos a descargas y servicios aparentemente inocentes. Además de las dificultades generales de garantizar la legitimidad de los archivos descargados a través de servicios peer-to-peer no oficiales, algunos servicios populares de compartición de archivos han sido históricamente acusados de instalar spyware («programa espía») en los ordenadores

de sus usuarios, con el fin de obtener datos personales. Otro sistema parecido, Kazaa, instalaba una serie de herramientas en los ordenadores de los usuarios que rastreaban los hábitos de navegación de estos y les mostraba tipos de publicidad adaptados. Fundado en 2001, Kazaa fue cerrado en 2006 como servicio para compartir archivos, después de acceder a pagar unos 100 millones de dólares en daños y perjuicios a la industria discográfica, y actualmente funciona como servicio de música legal.

Descargas no deseadas

001-222 50 ideas digital.indd 65 22/02/2012 16:12:21

66 Haciaelpresentedigital

Como parte del proceso, Napster también indexaba todos los archivos de música de tu ordenador dentro de un directorio especial para com-partir música, y luego permitía a otros usuarios conectarse contigo y descargarlos cuando estabas conectado a Internet. Debido a este uso de servidores de búsqueda central, Napster no era un servicio puro de peer-to-peer... pero su éxito ilustraba el poder de tales redes, y sentó un pre-cedente para otros servicios similares dedicados a compartir todo tipo de archivos: desde música y vídeo hasta aplicaciones y juegos.

BitTorrent Creado en 2001, BitTorrent es un protocolo de código abierto para compartir archivos que ha tenido un efecto todavía más profundo en la cultura digital que otros sistemas anteriores como el Naps ter, gracias a su potencia y flexibilidad. Mientras Napster requería de sus usuarios el uso de archivos MP3, varias formas de BitTorrent son actualmente el sistema preferido para compartir casi todos los archivos grandes por la red, desde películas hasta paquetes de software, y hoy en día pueden representar hasta un cuarto de todo el tráfico por Internet.

Al igual que Napster, BitTorrent requiere que inicialmente el usuario se descargue un software de cliente en su ordenador. Luego ha de en-contrar online un enlace al archivo que se quiere descargar. En vez de un servidor central que lo conecta a otro usuario individual de Inter-net que tiene una copia del archivo deseado, se descarga un pequeño archivo «torrente» que contiene información detallada sobre muchos ordenadores distintos conectados a Internet que tienen cada uno una copia del archivo real que el usuario necesita.

Esto permite al usuario descargarse distintas partes del archivo grande que estaba buscando de varios ordenadores distintos al mismo tiempo —algo que hace el proceso de descarga mucho más rápido y sólido que la simple copia del archivo de otro ordenador, y que además pone mu-cha menos presión en las redes que conectan a los usuarios entre ellos.

El grupo de ordenadores del que se descarga el archivo se conoce co-lectivamente como swarm («enjambre»), y mientras trozos del archivo se están descargando del enjambre, también pueden ser simultánea-mente cargados a otros usuarios de otros sitios. Para animar a compar-tir, alguien que utiliza BitTorrent a menudo y aporta gran cantidad de cargas para otros usuarios tenderá a tener prioridad frente a otros usua-

«Compartir ilegalmente archivos de música destruye el ciclo de creación musical y tiene

el potencial de perjudicar la producción cultural en todo el mundo.»

osamusato

001-222 50 ideas digital.indd 66 22/02/2012 16:12:21

67 compartirarchivos

rios. La página más famosa tal vez de todas las basadas en BitTorrent, The Pirate Bay, fue fundada en Suecia en 2003.

Compartir en el futuro Compartir archivos a través de meca-nismos como BitTorrent es casi imposible de evitar, ya que es un sis-tema descentralizado, sencillo y extremamente popular. Tal vez la manera más efectiva de vencerlo es crear métodos legales de distribu-ción online de productos que ofrezcan un nivel similar de facilidad, pero que cobren una pequeña cantidad a cambio de su garantía de fiabilidad, legalidad, calidad e integración con otros servicios.

Hay también multitud de usos totalmente legales y oficiales de tecno-logías potentes para compartir archivos, y BitTorrent en particular, para distribuir programas y actualizaciones online: sus usuarios desta-cados van desde el Gobierno británico hasta Facebook, Twitter y Bliz zard Entertainment —el editor de World of Warcraft—, para quienes esta forma de distribución es una manera potente de reducir la carga de las redes y los servidores.

La idea en síntesis:compartir está 

siempre al alcance con un clic

Compartir archivos entre amigos puede ser una actividad legítima, pero supone a menudo una violación del copyright, según sea la naturaleza del servicio utilizado, los propios archivos y los países entre los que tiene lugar la compartición. Un problema es quién es legalmente responsable de las infracciones de copyright cuando se comparte un archivo: los individuos que comparten o el servicio que se lo permite. Eso puede a su vez depender de si el servicio dispone de un índice centralizado de archivos disponibles a través del cual conecta a las personas, o si se trata de un sistema

descentralizado. En Europa, por ejemplo, los individuos que comparten material con copyright por la red se arriesgan a perder el acceso a Internet. Sin embargo, identificar a los usuarios de Internet por su actividad en la red puede resultar a la vez difícil y controvertido. En Estados Unidos, en los últimos años se han lanzado miles de acusaciones contra individuos sospechosos de haber estado implicados en una compartición de archivos que constituía una infracción del copyright... pero todavía no se ha definido una postura legal vinculante al más alto nivel.

Aspectos legales

001-222 50 ideas digital.indd 67 22/02/2012 16:12:21

68 Haciaelpresentedigital

La música fue el primer medio en demostrar el potencial de los servi-cios de streaming, gracias al tamaño relativamente pequeño de los ar-chivos de música, en comparación con los contenidos de otros medios, y a la expansión del formato compacto musical en MP3 desde 1993. En el caso de la música, uno de los primeros servicios usados para el streaming de archivos se llamaba RealPlayer. Introducido en 1995, permitía descargar una versión básica del mismo gratuitamente; una vez instalado en el ordenador del usuario, su integración con los na-vegadores web significaba que este podía transmitir la música de cual-quiera que ofreciera un servicio compatible con RealPlayer.

Todos los servicios de streaming son básicamente parecidos. El usuario selecciona un enlace en su navegador: en vez de iniciar la descarga de un archivo de medios completo, el navegador conecta con un servi-dor de red y descarga lo que se conoce como metarchivo. Este pequeño metarchivo contiene instrucciones para que el navegador lance el ser-vicio de reproducción de medios requerido para reproducir el archivo, además de la información sobre la ubicación virtual del archivo que se va a transmitir.

cronología1995 2005 2007 2008 2012Lanzamiento de RealPlayer Lanzamiento de YouTube Lanzamiento completo

de iPlayer de la BBCLanzamiento de Spotify Previsto el lanzamiento de YouView

en el Reino Unido

16  Medios en streaming 

Compartir y descargar archivos es una excelente manera de distribuir contenidos digitalmente. Pero aun con las capacidades en rápida expansión de ordenadores y dispositivos móviles, es algo que supone un tiempo y un espacio considerables. Y aquí es donde entra el streaming: la posibilidad de escuchar o mirar medios online sin tener que esperar que se descargue todo el archivo. Los servicios de streaming permiten de manera efectiva una forma potente y flexible de emisión a través de Internet, y que además ofrece a los proveedores y emisores de contenidos una magnífica alternativa a la compartición de archivos.

001-222 50 ideas digital.indd 68 22/02/2012 16:12:21

69 mediosenstreaming

Una vez que el navegador ha dado la ubicación del archivo que se va a transmitir, empieza el proceso de buffering —mandar paquetes de datos a almacenar en cierta cantidad de memoria apartada para reci-bir contenidos de medios—. Eso lleva un poco de tiempo, dependien-do de la velocidad de la conexión a Internet, pero asegura que la re-producción no será constantemente interrumpida por la necesidad de descargar datos: ha sido buffered («almacenado temporalmente») para que esto no ocurra mediante la descarga anticipada del archivo.

Las formas más utilizadas de medios en streaming del Internet moder-no vienen de páginas de vídeos como YouTube, que ofrecen una vía potente y rápida de integrar los medios al uso de la red. Los clips de YouTube se pueden ver en la propia página principal o se pueden in-sertar en otros sitios, lo que significa que el contenido en vídeo se puede integrar en un blog u otra página web y visionarse desde allí, sin tener que entrar a YouTube.

El futuro de la televisión El vídeo en streaming ocupa mucho más ancho de banda que los archivos en audio, lo que significa que hace

cronología1995 2005 2007 2008 2012Lanzamiento de RealPlayer Lanzamiento de YouTube Lanzamiento completo

de iPlayer de la BBCLanzamiento de Spotify Previsto el lanzamiento de YouView

en el Reino Unido

Introducido en 2010 en Estados Unidos, Onlive propone transmitir no solo sonidos e imágenes a sus usuarios de Internet, sino videojuegos interactivos completos. El servicio —basado en una serie de potentes centros de datos y tecnología de compresión avanzada— ha apartado los límites de lo que muchos comentaristas creían posible en términos de tecnología streaming. Además de ser gráficamente muy complejos, los juegos requieren cientos de interacciones por minuto entre los jugadores y el entorno virtual. Lograrlo a través de Internet —con un juego que está en marcha no en el salón del usuario, sino en el

ordenador de un centro de datos que está a cientos de kilómetros de su casa— demuestra lo que puede ser un nivel superior de sofisticación de la noción de streaming remoto, que remplazaría lo que consiste en la posesión y el funcionamiento real de una copia de un programa en tu propio ordenador. Como con las películas de cine, tales servicios de juegos «a la carta» pueden finalmente permitir a los usuarios elegir entre decenas de miles de títulos a través de una suscripción mensual... aunque las exigencias técnicas de mantener un servicio de alta calidad siguen siendo considerables.

Juegos en streaming

001-222 50 ideas digital.indd 69 22/02/2012 16:12:21

70 Haciaelpresentedigital

relativamente poco que se ha convertido en una posibilidad extendi-da: para la televisión ordinaria se requiere una conexión de banda ancha, y para el contenido en HD (alta definición) se requiere una conexión extremamente rápida. Sin embargo, a medida que estas co-nexiones se van normalizando, casi todas las formas convencionales de televisión están avanzando hacia Internet y los servicios de strea-ming.

Tal vez el ejemplo más famoso de televisión transmitida a través de Internet es el iPlayer de la BBC, cuya primera versión completa fue presentada en 2007, que permite a los usuarios visionar contenidos en audio y vídeo para «ponerse al día» con las emisiones recientes. Ac-tualmente, el iPlayer gestiona más de cien millones de peticiones de programas al mes, y su éxito ha ayudado a sacar a la luz muchos de los potenciales problemas que rodean a los medios de streaming por Inter-net como modelo de distribución. La misma popularidad del iPlayer ha provocado las críticas de algunos ISP, debido a la cantidad de banda ancha que ocupa. Debido a que la BBC está financiada por una tasa de licencia pagada únicamente por los ciudadanos británicos, su conteni-do solo está disponible para los usuarios de Internet que tienen una dirección IP dentro de Gran Bretaña. Sin embargo, no es necesario haber pagado una licencia de televisión para visionar el contenido de iPlayer dentro del Reino Unido. Los derechos son también un tema complicado: muchos programas solo están disponibles dentro de un período limitado posterior a su emisión, y algunos no lo están nunca, con el fin de cumplir con las normas del copyright. En 2011 se intro-dujo una versión internacional de pago del iPlayer, y también de un ser-

Hay muchos programas que permiten a los usuarios grabar medios en streaming a través de un simple proceso de grabación, lo cual convierte de hecho el streaming en un proceso de descarga, aparte de ser un proceso de emisión. Debido a las implicaciones de copyright y a la pérdida de control (y, por tanto, de las ganancias potenciales que supone el visionado y la publicidad) que representa, la mayoría de páginas de streaming dedican esfuerzos considerables a intentar bloquear los programas de grabación. Esta

protección suele conllevar técnicas de gestión de derechos digitales, como la codificación del stream de medios, o los métodos para ocultar la ubicación desde la que se origina un stream. Sin embargo es extremamente difícil evitar que alguien decidido a grabar medios en streaming haga una copia de lo que aparece en su ordenador a través de técnicas como los programas de captación de pantalla, que sencillamente graban todo lo que ocurre de un momento a otro en la pantalla de un ordenador.

Grabar medios en streaming

001-222 50 ideas digital.indd 70 22/02/2012 16:12:22

71 mediosenstreaming

vicio de televisión multicanal por Internet en el Reino Unido que se conocerá como YouView.

La muerte de la programación Además de los medios por streaming de «ponerse al día», la mayoría de televisiones principales ofrecen cada vez más streaming virtual en directo, que utiliza efectivamente Internet como plataforma de emi-sión paralela a la televisión tradicional, aunque puede ser solo accesible como parte de un paquete de suscripción a un canal o como evento aislado pay-per-view. Este giro hacia las emisiones basadas en Internet se ha acelerado rápidamente en años recientes con la intro-ducción de programas de vídeo-streaming no solo en los ordenadores, sino también en consolas de juegos y otros dispositivos, movidos por la expectativa de que los consumidores esperan cada vez más poder acce-der a cualquier forma de medios a través de Internet... y poder elegir exactamente lo que ven y cuándo, en vez de tener que conformarse con el modelo de televisión programada en un canal particular.

La creciente personalización de las emisiones es aplicable no solo a la televisión, sino a un deseo general de personalizar las experiencias mediáticas. Los servicios de streaming de música como Spotify, por ejemplo, plantean un desafío hasta para tiendas de música virtuales tan populares como iTunes, porque ofrecen a los usuarios la posibili-dad de no comprar nunca música y poder pagar sencillamente una suscripción mensual a cambio de la posibilidad de acceder a música de una selección de más de diez millones de grabaciones.

Esta transición desde la compra de medios como la música y el vídeo hasta sencillamente suscribirse a un servicio de streaming bien surtido marca parte del cambio potencialmente enorme que se está dando en la concepción de la propiedad de los medios: con el ancho de banda y la selección suficiente, mucha gente puede ver poca necesidad de poseer físicamente una copia de cualquier grabación de música o ví-deo si estos pueden sintonizarse en casa. La otra cara de la moneda es, por supuesto, bastante obvia: que usar estos medios depende de tener una conexión fiable a Internet y de la capacidad de la empresa que hay al otro lado de ofrecer servicio a todos sus usuarios.

La idea en síntesis:Internet se está 

convirtiendo en el emisor universal

«Estamos viviendo en un momento en que la atención es la nueva moneda.»petecashmore,2009

001-222 50 ideas digital.indd 71 22/02/2012 16:12:22

72 Haciaelpresentedigital

El cambio que ha supuesto la presentación de contenidos virtuales enri-quecidos, en vez de limitarnos a usar Internet para el correo y las comuni-caciones o la web para transmitir información enlazada, ha sido una parte fundamental de la transición a la Web 2.0. En concreto, hay toda una serie de tareas —como el procesado de textos, las agendas electrónicas o las hojas de cálculo— que antes requerían que el usuario instalara paque-tes de programas en su ordenador y ahora se pueden llevar a cabo senci-llamente a través de un navegador usando servicios online específicos.

¿Qué aspecto tiene un ejemplo de contenido virtual «enriquecido»? Por un lado, hay servicios como el Gmail o los sistemas de Documentos y Agenda virtual de Google, que ofrecen la mayoría de cosas que hace diez años significaban pagar un programa de escritorio bastante caro: el pro-cesado de textos, agendas detalladas vinculadas a calendarios dinámicos y archivos completos de correo electrónico, y la capacidad de cargar y convertir documentos y archivos de datos en toda una serie de formatos distintos. Como respuesta, la serie de aplicaciones de Microsoft Office ofrece desde 2010 una serie de Office Web Apps, en reconocimiento del creciente giro de muchos usuarios de informática hacia la complexión

17  Aplicaciones completas de Internet 

Ofrecer un contenido virtual completo —animación, sonido, vídeo, interactividad— es una de las tareas esenciales de los modernos creadores de programas. A medida que una cantidad creciente de toda la actividad digital ocurre a través de Internet y aumenta la demanda de aplicaciones virtuales online complejas, la batalla por ofrecer más y controlar el software a través del cual se presentan los enriquecidos contenidos del futuro se ha vuelto más encarnizada. Estamos en plena carrera por ver quién consigue aportar más innovación.

cronología1996 2005 2007 2008Lanzamiento de AdobeFlash Se acuña el término AJAX Lanzamiento del Silverlight de Microsoft Lanzamiento de la primera prueba del HTML5

001-222 50 ideas digital.indd 72 22/02/2012 16:12:22

73 aplicacionescompletasdeinternet

de tareas a través de Internet que antes requerían la compra por separa-do de programas específicos: la serie permite a los usuarios ver y editar documentos gratuitamente, directamente desde un navegador de red.

Al otro extremo del espectro encontramos el ocio virtual. Ofrecer ví-deo y música a la carta dentro de una página web sofisticada e interacti-va —un mercado cada vez más importante para todos los emisores— es típico de los contenidos completos modernos. Sin embargo, los produc-tos más sofisticados de todos en este espacio son los juegos, que exigen una interacción al momento con los jugadores y pueden ocupar una me-moria y unos requerimientos gráficos y de procesador extraordinariamen-te altos en comparación con la mayoría del resto de actividades virtuales.

En la década de 1990, casi todos los juegos de ordenador sofisticados tenía que funcionar con un programa comprado individualmente. Pero la creciente capacidad de ofrecer este contenido online ha pro-vocado una explosión en la oferta de juegos complejos a través de los navegadores: desde los emuladores de los clásicos juegos y rompecabe-zas de mesa hasta las florecientes comunidades independientes de creadores, que ofrecen títulos de calidad comparable a los que ofrecían los juegos de consolas especializadas de una década atrás.

A principios de 2011, ni Flash, ni Silverlight, ni Java podían utilizarse en los aparatos que funcionaban con el sistema operativo iOS de Apple: los iPods, los iPhones y los iPads. Las preocupaciones por el rendimiento podían haber sido un factor de esta decisión, pero hay críticos que opinan que había otro factor en juego: el control. Las plataformas web dirigidas de forma independiente permiten potencialmente a los creadores saltarse el alto nivel de control que Apple ejerce sobre los medios y las aplicaciones utilizados en sus aparatos, puesto que permitirían

que terceras partes hicieran que tales materiales fueran disponibles a través de la web. Teniendo en cuenta la creciente importancia de las aplicaciones web, probablemente no sea más que cuestión de tiempo antes de que casi todas las experiencias de navegación sean compatibles con todas las principales plataformas... a menos que uno o dos claros ganadores aparezcan para dominar el territorio y reclamar las ganancias. Cuando hablamos de contenidos enriquecidos, la preocupación más crucial de todas tal vez sea el control.

Falta de soportes

cronología1996 2005 2007 2008Lanzamiento de AdobeFlash Se acuña el término AJAX Lanzamiento del Silverlight de Microsoft Lanzamiento de la primera prueba del HTML5

001-222 50 ideas digital.indd 73 22/02/2012 16:12:22

74 Haciaelpresentedigital

Plataformas populares Una de las primeras decisiones que un creador de la web ha de tomar cuando quiere crear contenidos «enri-quecidos» para que se usen online es con qué software quiere que fun-cionen. ¿Funcionará dentro de las capacidades existentes de un navega-dor web, o pedirá a los usuarios que antes se instalen un marco externo de software que puede funcionar como un plug-in del navegador? Instalar este software en el disco duro del ordenador puede darle acceso a una serie de opciones y funciones más allá de las capacidades de un navegador; pero también hay el riesgo de una falta de compatibilidad con los sistemas que no pueden usarlo, o plataformas que no permitirán a un usuario descargarse e instalar software adicional.

Tres plataformas descargables que dominan abrumadoramente el mer-cado global para la creación de RIA (por Rich Internet Applications) son el Flash de Adobe, el Silverlight de Microsoft, y el Java de Ora-cle Corp. Una vez descargada la última versión de cada una de ellas —algo que ya se ha hecho en muchos ordenadores recién adquiri-dos—, el contenido virtual que utiliza sus capacidades puede senci-llamente reproducirse sin necesidad de más instalaciones.

Flash es la más extendida de todas estas plataformas, y se incluye como estándar en la mayoría de ordenadores modernos de reciente adquisición. Especialmente popular para la ejecución de juegos vir-tuales, gracias a su relativa facilidad de uso y a su buena adaptabilidad a las animaciones y a la interacción, Flash se introdujo por primera vez en 1996 como una manera de añadir animación a los contenidos

Mientras que Flash, Silverlight y Java son las plataformas dominantes para desarrollar aplicaciones de Internet enriquecidas, hay otras más especializadas que tienen potentes usos especiales. Un ejemplo reciente es el Unity Web Placer, diseñado para los juegos online. Una vez descargado, permite la interpretación de mundos tridimensionales en los cuales nos podemos sumergir a través de los navegadores de red... algo que hasta hace relativamente poco era solo posible dentro de juegos adquiridos individualmente (y diseñados elaboradamente). Herramientas como Unity muestran lo importantes que

son ahora los navegadores de red para la experiencia digital en los ordenadores, y cómo los servicios ofrecidos a través de ellos son cada vez más capaces de funcionar no solo como servicios interactivos enriquecidos, sino como entornos interactivos cuidadosamente elaborados. Además, herramientas como el Unity ponen la capacidad de diseñar tales entornos al alcance del presupuesto y los conocimientos de un número creciente de personas, a medida que la producción de software y contenido digital continúa pasando de actividad minoritaria a algo más accesible a casi todos los usuarios.

Mundos tridimensionales

001-222 50 ideas digital.indd 74 22/02/2012 16:12:22

75 aplicacionescompletasdeinternet

virtuales, como la publicidad, y desde entonces ha crecido hasta con-vertirse en una potente plataforma multimedia.

El Silverlight de Microsoft, aparecido por primera vez en 2007, se propuso cuestionar el dominio de Flash, ofreciendo servicios similares como Flash, trabajando como propietario en vez de hacerlo desde una base de código abierto, algo sobre lo que algunos defensores de la web abierta y libre han expresado preocupación. Java, en cambio, fue lan-zado como lenguaje de programación en 1995 y está disponible bajo una licencia de programa gratuito, aunque la plataforma JavaFX, in-troducida en 2010 específicamente para al creación de RIA, todavía no ha sido sacada con licencia pública.

HTML5 y AJAX Hay también otras maneras de generar conte-nidos online enriquecidos e interactivos sin tener que «conectar» pla-taformas como Java, Silverlight o Flash al navegador. La más popular de ellas es AJAX, por Asynchronous JavaScript, y XML, un término que describe un grupo de tecnologías que permiten colectivamente el desarrollo de contenidos web enriquecidos basados en funcionalida-des estándar integradas en las capacidades de casi todos los navegado-res modernos, y que se basan en criterios totalmente abiertos más que en involucrar a programas con propietario. Sitios como Gmail o Goo-gle Maps están hechos mediante AJAX.

Hay otro código abierto que parece inclinado a ofrecer una herramien-ta tentadora para muchos diseñadores de la red: el HTML5, la versión más nueva del HyperText Markup Language que sostiene la World Wide Web. El HTML5 está todavía en fase de borrador, con las especi-ficaciones finales todavía por determinar, pero va mucho más lejos res-pecto de cualquier versión anterior de HTML en permitir a los creado-res generar contenidos sofisticados, interactivos y multimedia dentro de los buscadores sin tener que apoyarse en plug-ins externos.

La idea en síntesis:las aplicaciones de la web están definiendo el futuro del software

«Mientras que el origen de la red surgió alrededor de documentos estáticos, se está convirtiendo claramente en una plataforma

para las aplicaciones completas y sociales.»louisgray

001-222 50 ideas digital.indd 75 22/02/2012 16:12:22

76 Haciaelpresentedigital

La forma más común de conexión a Internet sin cables se conoce como Wi-Fi, un término que abarca un grupo de tecnologías, muchas de ellas basadas en una serie de estándares técnicos llamados 802.11. El término Wi-Fi en sí mismo es una marca registrada que se utilizó por primera vez en 1999. Hay multitud de aparatos —incluidos los ordenadores portátiles y de sobremesa, los smartphones, los tablets, las consolas de juegos y los reproductores media— que actualmente se venden con conexión Wi-Fi, lo que significa que contienen una tar-jeta de red sin cables.

La clave para el uso del Wi-Fi no está tanto en tener un aparato con Wi-Fi, sino en conectarse a una red. Esto significa conectarse a un punto de acceso sin cables —también llamada router— que hace de puente entre los aparatos Wi-Fi e Internet. Un router también está conectado, normalmente de forma física, a Internet, y luego usa un transmisor y receptor de radio para permitir a los aparatos Wi-Fi a su alcance (normalmente dentro de un radio de 30 m en el interior) localizarlo y comunicarse con la red. Dependiendo del nivel de so-fisticación del router, muchos aparatos Wi-Fi distintos pueden co-nectarse a la misma red sin cables y obtener acceso a Internet a tra-vés de la misma... o simplemente acceder a otros aparatos de la misma red.

cronología1994 1996 1999Creación del Bluetooth Primer acceso comercial a Internet a través de teléfono

móvilPrimera utilización del término Wi-Fi

18  Sin cables Las primeras fases de la cultura digital actuaban a través del desarrollo de una infraestructura física que sigue constituyendo la base del moderno Internet: una inmensa red global de cables que conectan naciones y continentes. Pero actualmente, una segunda fase de conexiones sin cables está demostrando de nuevo su poder de transformación y permite que partes enteras del mundo, además de muchos tipos de dispositivos nuevos, se incorporen a Internet y nos trasladen de una cultura de máquinas de sobremesa físicamente interconectadas a otra llena de abundantes y omnipresentes aparatos en red.

001-222 50 ideas digital.indd 76 22/02/2012 16:12:22

77 sincables

Además de los routers caseros y de oficina, los puntos públicos de Wi-Fi son cada día más habituales, ofreciendo a las personas con aparatos activados con Wi-Fi el acceso a Internet cuando se en-cuentran en la zona de influencia. Hay redes que pueden requerir el pago previo, a través de un sistema de conexión, o que pueden ser ofrecidas a través de un proveedor de telefonía móvil como parte de un servicio de suscripción. Hay muchos espacios públicos que tie-nen Wi-Fi abierto y gratuito.

Vulnerabilidad Las redes sin cables son potencialmente vulne-rables al hacking o al uso malintencionado, en especial si son redes abiertas —es decir, que el nombre de la red es revelado abiertamente por un router y cualquier aparato puede conectarse a ella—. Se puede ofrecer un nivel superior de seguridad requiriendo un código para ac-

Bautizado con el nombre de un rey escandinavo del siglo xii que unificó varias tribus guerreras bajo su cetro, el Bluetooth es hoy una tecnología abierta de red sin cables —creada en 1994 por la compañía sueca Ericsson— que se utiliza para crear redes seguras entre aparatos en onda corta. La mayoría de teléfonos, portátiles y ordenadores de sobremesa vendidos hoy tienen Bluetooth, como lo tienen cada vez más coches, GPS y otros aparatos que el usuario puede desear conectar sin cables cuando están cerca. Cada aparato tiene un perfil Bluetooth codificado en su disco duro que contiene información sobre para qué se

utiliza; cuando otro aparato Bluetooth entra en su radio de influencia, observan mutuamente sus perfiles para determinar si son compatibles. Si lo son, se establece una piconet —una red capaz de conectar hasta ocho aparatos en activo—. Las piconets pueden enlazarse con otras piconets, y los aparatos pueden pertenecer a más de una, convirtiendo el Bluetooth en una manera fácil y potente de transmitir información o de combinar las funciones de los aparatos personales: hacer llamadas telefónicas por el sistema estéreo del coche, por ejemplo, mientras se escucha música del iPod por el mismo sistema.

La potencia del Bluetooth

cronología1994 1996 1999Creación del Bluetooth Primer acceso comercial a Internet a través de teléfono

móvilPrimera utilización del término Wi-Fi

001-222 50 ideas digital.indd 77 22/02/2012 16:12:22

78 Haciaelpresentedigital

ceder a la red, o haciéndola invisible a aquellos que no conocen toda-vía su nombre y detalles.

Acceso móvil Todavía más importante globalmente que el Wi-Fi es el acceso a Internet a través de los teléfonos móviles, algo que ha tenido un rápido efecto transformador en muchas partes del mundo, como África y Asia, donde la infraestructura física de telecomunica-ciones es irregular y demasiado cara de construir en muchos lugares, pero donde el acceso móvil a través de mástiles de telefonía podría desplegarse rápidamente para ofrecer cobertura en casi cualquier par-te del país. Para millones de habitantes del mundo en vías de desarro-llo, esto significa que su primera experiencia de Internet no llega a través del ordenador o de una conexión por cable, sino a través del teléfono móvil.

Por las redes globales de telefonía móvil existen multitud de criterios y formatos de datos. El acceso a Internet se ofreció por primera vez comercialmente a través de los teléfonos móviles en 1996 en Finlan-dia, mientras que la navegación completa por Internet a través de apa-ratos móviles no apareció hasta 1999 en Japón, vía el servicio de te-lefonía móvil i-mode. Los estándares de móvil son generacionales, y van desde los móviles de primera generación o G1, hasta la ahora muy utilizada tercera generación, o 3G, que permite una velocidad de transmisión de datos por Internet relativamente rápida, de al me-nos 200 kbits/segundo, comparada con las velocidades moderadas de

Abreviación de Worldwide Interoperatibility for Microwave Access, el WiMAX es un sistema parecido al Wi-Fi pero sin sus limitaciones de ámbito, puesto que sus antenas pueden emitir por ciudades y pueblos enteros. Aunque todavía no está muy desplegado en comparación con otros servicios, puede que acabe siendo una de las tecnologías sin cables más potentes de la futura historia de Internet, puesto que tiene el potencial de cubrir fácilmente grandes zonas habitadas con redes sin cables de alta

velocidad. Los aparatos individuales pueden conectarse directamente a redes WiMAX si tienen instalado el hardware adecuado. Otra posibilidad cada vez más utilizada, sin embargo, es el uso de emisiones WiMAX para conectar con unidades de suscripción WiMAX dentro de los hogares o las oficinas. Estas unidades de suscripción funcionan entonces como routers, ofreciendo redes locales de Wi-Fi a todos los aparatos de una casa o un despacho.

Bienvenidos a WiMAX

001-222 50 ideas digital.indd 78 22/02/2012 16:12:23

79 sincables

la banda ancha por cable. Los estándares de móvil de cuarta genera-ción incluirán un acceso a Internet mucho más seguro y rápido, y ya hay varios proveedores de teléfonos móviles que ofrecen servicios «pre-4G» que operan de forma mucho más rápida y potente que el 3G normal. Sin embargo, en muchas partes del mundo siguen ope-rando básicamente en varias redes 2G, que ofrecen una transmisión de datos limitada.

Cientos de millones de personas acceden hoy a Internet a través de teléfonos móviles, pero tanto la variedad como las limitaciones de los aparatos y de las redes están hechas para una experiencia más fragmentada que la World Wide Web conectada. Mientras que los mo-dernos usuarios de smartphones y redes rápidas pueden navegar por la red con casi la misma libertad con que podrían hacerlo con un PC, los teléfonos más antiguos y las redes más lentas limitan severamente el uso de Internet, como lo hacen también las incompatibilidades en-tre sistemas operativos diseñados por distintos fabricantes. El iOS de Apple y el Android de Google son los dos sistemas operativos domi-nantes para los smartphones; pero estos siguen siendo todavía utili-zados por una minoría de los usuarios globales de Internet móvil.

La idea en síntesis:estés dónde estéspuedes conectarte

a la red

«En los próximos años, más de mil millones de personas que no han

dispuesto nunca de un mecanismo de comunicación para hablar con el exterior

de su pueblo tendrán un teléfono móvil.»

erichschmidt,2010

001-222 50 ideas digital.indd 79 22/02/2012 16:12:23

80 Haciaelpresentedigital

El término «smartphone» lo utilizó por primera vez la empresa sueca Ericsson en 1997 para describir un dispositivo que, en realidad, no lle-gó a salir el mercado: el Communicator GS88, parte del proyecto Pe-nélope de la empresa. Parte fundamental del aspecto smart de este aparato no era tanto su disco duro —que en aquel momento era muy potente— como su software: una versión prototipo del primer sistema operativo específico para aparatos móviles para ofrecer cualquier cosa que se acercara a la potencia y flexibilidad de un ordenador.

El sistema operativo se llamaba Symbian y había sido desarrollado en colaboración con Psion, Nokia y Motorola, y el primer teléfono mó - vil comercializado que incorporaba el sistema Symbian apareció en el mercado en 2000: el R380 de Ericsson. Los servicios basados en Inter-net como el e-mail ya eran accesibles en otros teléfonos, pero su funcio-nalidad como aparatos informáticos móviles había sido muy limitada.

El aparato de Ericsson no se paralizó por los problemas que hasta en-tonces habían mermado todos los esfuerzos de crear un software serio para teléfonos móviles (potencia informática inadecuada), sino por en-cima de todo, por la ausencia de funciones multitarea, de memoria y de codificación que eran necesarias si se quería crear aplicaciones poten-tes. El propio R380 tenía un software fijo —otras empresas no podían desarrollar aplicaciones para el mismo—, pero en 2002, un acuerdo

19  Los smartphonesUn smartphone integra las funciones de un teléfono con funciones informáticas más avanzadas y, en particular, la capacidad de acceder a los servicios de Internet, desde el e-mail básico hasta la navegación total. Los smartphones solo constituyen una quinta parte de las ventas de los teléfonos móviles modernos, pero es un sector que está transformando gradualmente la manera en que millones de personas se relacionan y acceden a los recursos digitales, desde el correo electrónico y la World Wide Web hasta los programas de medios, ocio y productividad, los servicios comerciales y el mundo de los negocios.

cronología1997 2001 2002 2007 2008Presentación del primer smartphone

Primera red 3G Primer software de terceros para smartphones

Lanzamiento del iPhone Lanzamiento de los teléfonos Android

001-222 50 ideas digital.indd 80 22/02/2012 16:12:23

81 lossmartphones

de colaboración entre dos gigantes de la electrónica, Sony Ericsson, rectificó con la introducción de una ampliación del sistema operativo Symbian que permitía por primera vez que terceras partes pudieran crear aplicaciones para el mismo.

La demanda de datos 2002 también fue el año en que las me-joras a la serie Blackberry de buscas (pagers) sin cable anunciaron su llegada como competidor en el espacio smartphone. A esas alturas, con los teléfonos y el software volviéndose cada vez más sofisticados, la demanda para transferir datos a través de las redes de telefonía mó-vil era cada vez más intensa, y la llamada segunda generación de redes móviles (2G) empezó a dar paso a la tercera (3G), que disponía ya de una enorme capacidad de transferir datos.

La primera red de móviles 3G totalmente operativa fue lanzada por Japón a finales de 2001, seguida por Corea del Sur al año siguiente.

Durante casi toda la primera década de su existencia, los smartphones carecieron de algo que el mercado general de los ordenadores había dado por sentado durante mucho tiempo: un mercado vigoroso de software. La proliferación de aparatos distintos y, por encima de todo, la extrema dificultad de vender a los propietarios de smartphones y convencerlos de que gastaran dinero en software adicional comportó la escasez de productos de alta calidad. Pero el mercado del iPhone de Apple y del Android de Google transformó totalmente este panorama. Por primera vez, los creadores

independientes podían esperar beneficiarse de la creación de programas de alta calidad y de venderlos directamente a los propietarios de aparatos smartphone, como había sido práctica habitual durante décadas entre los propietarios de ordenadores. Además, la distribución digital ofrecía una economía de escala instantánea: el potencial de llegar a cada usuario de smartphone sin pasar por minoristas ajenos a Apple o Google. Casi de la noche a la mañana, la «economía de la aplicación» se convirtió en una de las zonas más dinámicas del mundo para hacer negocios.

La fuerza transformadora de las aplicaciones

cronología1997 2001 2002 2007 2008Presentación del primer smartphone

Primera red 3G Primer software de terceros para smartphones

Lanzamiento del iPhone Lanzamiento de los teléfonos Android

001-222 50 ideas digital.indd 81 22/02/2012 16:12:23

82 Haciaelpresentedigital

A medida que estas redes de mayor capacidad empezaron a extenderse por el mundo, las posi-bilidades de los smartphones se fueron amplian-do —desde los sofisticados software e interfaces preinstalados hasta los genuinos servicios de red, mercados de software y contenido de Inter-net más complejo que las simples palabras, correo electrónico e imágenes estáticas.

Llega el iPhone El punto de inflexión fue 2007, cuando el CEO de Apple, Steve Jobs, puso fin a años de especulación anunciando el nuevo producto de su empresa: una integración del enormemente po-pular iPod (lanzado en 2001) con un teléfono móvil y una nueva es-pecie de aparato con navegador de Internet, completado con una ver-sión móvil totalmente funcional del programa de navegación de red del ordenador de sobremesa Apple.

Transcurrió un año hasta que nada comparable al iPhone llegara al mercado... un año durante el cual las percepciones de lo que significaba el iPhone cambiaron radicalmente. El iPhone combinaba una pantalla grande de gran calidad adecuada para visualizar vídeos con una expe-riencia de navegación comparable con la que ofrecían los ordenadores «apropiados». Desde julio de 2008, también ofrecía acceso al primer mercado digital realmente popular de software para smartphones: la App Store, que llegaría a ver diez mil millones de descargas en enero de 2011, de entre una selección de más de 400.000 aplicaciones distintas.

El primer rival verdadero del iPhone llegó en 2008 con el lanzamien-to del primer smartphone basado en el nuevo sistema operativo móvil de Google, el Android: el HTC Dream, también conocido como G1. Este sería el primero de muchos aparatos que funcionaban con el sis-tema operativo de código abierto de Google: ya a principios de 2011 había disponibles más de 50 smartphones con sistema Android, ade-más de un mercado digital Android parecido al de la Apple App Sto-re con más de 200.000 aplicaciones disponibles.

Poder informático de bolsillo Actualmente los smartphones siguen aumentando regularmente de potencia, igual que las redes de datos que los abastecen empiezan a hacer la transición hacia una cuarta generación de acceso de alta velocidad. Aunque los smartphones to-davía no significan la mayoría de ventas de teléfonos móviles ni lo harán durante muchos años, la presencia de tal capacidad informática en cientos de millones de bolsillos en todo el mundo ya está causando un efecto profundo en la cultura digital.

Concretamente, los smartphones se han alimentado de una enorme y creciente demanda de red social, de juegos y trabajo en movimiento,

«La aplicación es el nuevo single a 99 centavos; para

los chicos, es la nueva moneda.»

timWestergren

001-222 50 ideas digital.indd 82 22/02/2012 16:12:23

83 lossmartphones

además de las aplicaciones capaces de basar su servicio en saber exac-tamente dónde están los usuarios, gracias al GPS integrado en la ma-yoría de dispositivos. El consumo de medios a través de los smartpho-nes es cada vez más sencillo y universal, pero también ha alimentado la aparición de una cultura de las «dos pantallas», en la que la expe-riencia de mirar un evento emitido o en directo se intensifica con el uso paralelo del smartphone de poder comentar a través de los medios sociales, compartir enlaces y reacciones con los amigos, y seguir la corriente global de respuestas a la acción en tiempo real.

Como han observado algunas encuestas de hábitos mediáticos, un smartphone es a menudo el primer objeto que toca un propietario moderno cuando se despierta por la mañana, y lo último que utilizan antes de acostarse: una intimidad con la tecnología digital y un nivel de integración en la cotidianidad tanto laboral como de ocio que hace décadas costaba imaginar.

La idea en síntesis:poder informático

para todos, encualquier lugar

A medida que los smartphones van haciéndose más avanzados, la carrera por añadir y mejorar características ha rozado, algunas veces, la parodia. Con la creciente estandarización de la incorporación de cámaras, vídeo de alta resolución, sensibilidad al movimiento, pantallas multitáctiles, acceso a Internet y GPS, hay algunos campos a los que ya no les queda espacio para mejorar. El iPhone 4 de Apple, introducido en junio de 2010, alardea de un «efecto retina» —que muestra 300 píxeles por pulgada en pantalla, lo que se dice iguala

al ojo humano en definición desde una distancia media de visión—. Mientras, el teléfono N8 de Nokia, aparecido en septiembre de 2010, ofrece una cámara capaz de tomar imágenes de 12 megapíxeles, unas seis veces el nivel de detalle de un televisor en HD. Todos estos medios requieren energía, claro..., uno de los motivos por los que la duración de la batería, que sigue luchando por durar más de 24 horas seguidas en cualquier smartphone, es casi la única cifra asociada a los móviles que ha bajado a lo largo de la última década.

Test de rendimiento

001-222 50 ideas digital.indd 83 22/02/2012 16:12:23

84 elladooscuro

El malware se define por la intención maliciosa —y a veces delicti-va— por parte de su creador, normalmente de uno o dos objetivos generales: obtener información de los usuarios incautos, o piratear or-denadores para poderlos utilizar encubiertamente para extender más malware o efectuar otras actividades ilícitas.

A medida que la actividad por Internet ha ido creciendo, las posibili-dades del software maligno han crecido enormemente. Al mismo tiempo, la línea entre tipos legítimos e ilegítimos de software se ha di-fuminado cada vez más por el deseo de muchas empresas que facilitan

un servicio online para sacar la máxima información de sus clientes.

En particular, el campo de los spyware —programas diseñados para grabar y transmitir información sobre hábitos de Internet y usos informáticos— ha prolife-rado como parte integrante de algunos programas de uso muy común. Paralela-

mente está el crecimiento del software «basura», que no es tanto acti-vamente malicioso como innecesario, y que puede venir furtivamente entremezclado con otros programas en un esfuerzo por guiar a alguien hacia páginas web o servicios concretos.

Virus y gusanos El más famoso y tal vez más antiguo tipo de malware es un virus informático. Los virus son programas ocultos que

20  MalwareEl malware, una contracción del concepto malicious software, significa exactamente lo que su nombre sugiere: software que hace más mal que bien. Es también un campo enorme y siempre en expansión que ha ido de la mano del crecimiento del uso de la informática y de Internet. Desde los virus hasta los caballos troyanos, y desde los gusanos hasta el robo de datos, la ecología del software malicioso es exactamente tan variada e ingeniosa como el resto del universo online.

«Un virus ineficiente mata a su anfitrión. Un virus inteligente

se instala en él.»Jameslovelock

cronología1971 1986 1988 2004Primer programa autorreplicador, Creeper

Primer programa de caballos troyanos, PC-Write

Primer gusano de Internet, Morris Worm

El gusano Mydoom enlentece brevemente Internet en un 10 por 100

001-222 50 ideas digital.indd 84 22/02/2012 16:12:23

85 malware

se autorreproducen, y sus primeros ejemplos se configuraron más como diversión o como experimentos de los programadores que con fines realmente maliciosos. Antes de que la conexión a Internet fuera un hecho habitual, tales virus se expendían en buena parte a través de archivos infectados o disquetes. Hacia la década de 1980, la infección a través de los primeros enlaces de Internet y del e-mail empezaron a ser más habituales, junto a las oportunidades de aprovechar el uso del virus como herramienta.

Como su propio nombre sugiere, un auténtico virus informático «in-fecta» archivos determinados, y estos archivos han de ser entonces activados por un usuario para que el virus entregue su «carga»: es de-cir, las acciones ocultas determinadas por su creador. Eso puede ir des-de borrar archivos cruciales de un disco duro hasta la más sutil insta-lación de programas ocultos que permiten que un ordenador sea controlado remotamente, o las acciones de su usuario monitorizadas.

cronología1971 1986 1988 2004Primer programa autorreplicador, Creeper

Primer programa de caballos troyanos, PC-Write

Primer gusano de Internet, Morris Worm

El gusano Mydoom enlentece brevemente Internet en un 10 por 100

El primer y más famoso gusano de Internet de la historia fue creado en noviembre de 1988 por un estudiante de la universidad de Cornell (EE.UU.), Robert Morris, de quien recibe su nombre. Era un elemento de software autorreplicante que explotaba las vulnerabilidades conocidas en las órdenes de e-mail del sistema operativo de los ordenadores conectados al Internet de los inicios, y Morris declaró que se trataba de un proyecto inocente para intentar medir el tamaño de Internet. Por desgracia, la decisión de introducir una posibilidad entre siete de autorreplicación cada vez que se encontraba con un ordenador en red significó que se reproducía a una velocidad enorme, y luego seguía cargando la limitada

banda ancha entre ordenadores en red, infectando las mismas máquinas muchas veces. Los cálculos del momento sugerían que infectó alrededor de un 10 por 100 de todas las máquinas conectadas entonces a Internet —unas 6.000 de un total de 60.000— y que provocó más de 10 millones de dólares de daños en reparaciones, mano de obra y tiempo perdido. Morris, actualmente profesor de informática en el MIT, fue la primera persona en ser declarada culpable según la Ley estadounidense de 1986 de Fraudes y Abusos Informáticos, mientras que su gusano motivaba la fundación del primer Equipo de Respuesta a las Emergencias Informáticas del mundo para tratar con casos parecidos.

El gran gusano

001-222 50 ideas digital.indd 85 22/02/2012 16:12:23

86 elladooscuro

A diferencia de un virus, un «gusano» (worm) es un programa mali-cioso capaz de extenderse activamente por una red, sin necesidad de que alguien lo active inadvertidamente. Mientras que los virus acos-tumbran a apuntar a archivos de un ordenador concreto, la capacidad autorreplicante de los gusanos significa que pueden provocar graves daños a las propias redes, consumiendo ancho de banda e impidiendo que el tráfico legítimo circule.

Caballos troyanos En la Eneida de Virgilio, los antiguos griegos consiguieron entrar en la antigua ciudad de Troya ocultos en un caba-llo de madera gigante presentado como regalo a los troyanos. Los ele-mentos de software conocidos como troyanos se presentan igualmente como apetecibles, pero contienen una codificación oculta maliciosa.

Los troyanos tienen una multitud de posibilidades, que van desde el ocultamiento de un virus o gusano diseñado para «piratear» el ordena-dor de un usuario, hasta imposiciones menos dañinas, como la instala-ción de la barra de herramientas de un patrocinador dentro de un na-

vegador, o la introducción de publicidad durante la navegación. Uno de los soft-wares más maliciosos que un troyano pue-de instalar es un key logger («registrador de teclas»), que graba y luego transmite a su creador un archivo con todos y cada uno de los inputs tecleados en el ordenador.

Los troyanos también pueden instalar ele-mentos de adware y de spyware. Estos in-troducen publicidad y vínculos esponsori-zados no deseados en los usuarios de un ordenador, y transmiten datos y detalles potencialmente personales a terceras par-tes sin el consentimiento del usuario. Este

tipo de malware ha sido tradicionalmente un problema tanto para compartir archivos entre plataformas de compartición como para las formas más dudosas de descarga de programas gratuitos de la red. Hay programas que ocupan lo que para algunos es una «zona gris» sobre su estatus como spyware, mandando datos a un servidor central sobre el historial de visionado de un usuario. Eso solo se hace con el consenti-miento explícito del usuario, que diferencia claramente tales progra-mas del malware «real».

Prevención La industria de la prevención del malware es un gran negocio moderno, pero el aspecto más importante de la prevención es sencillamente asegurarse de que el sistema operativo de un ordenador y sus programas están totalmente actualizados, puesto que los fabri-cantes sacan regularmente nuevas versiones de sus programas que eli-

«El único sistema realmente seguro es el que está apagado, metido dentro de un bloque de cemento y

sellado dentro de una sala con paredes de

plomo y vigilada por guardas armados.»

genespafford

001-222 50 ideas digital.indd 86 22/02/2012 16:12:23

87 malware

minan las vulnerabilidades que se sabe que eran aprovechadas por el malware. El segundo aspecto de la prevención tiene que ver con el sen-tido común: no ejecutar ningún programa ni abrir mensajes que no provengan de fuentes conocidas.

Más allá de esto, la mayoría de ordenadores modernos vienen ahora automáticamente equipados con algún tipo de firewall: un software que impide el acceso de red no autorizado al ordenador. Los progra-mas anti-malware son también muy populares, con versiones gratuitas y de pago disponibles para descargarse e incorporadas a las máquinas nuevas. Las actualizaciones regulares de los mismos ayudan a identifi-car las últimas amenazas.

Los sistemas operativos y navegadores más modernos vienen bien equi-pados con advertencias y comprobaciones de seguridad sobre activida-des potencialmente peligrosas. Sin embargo, los ordenadores modernos están cada vez más amenazados no cuando utilizan programas de sus propios aparatos, sino cuando utilizan servicios de Internet, cuyas valio-sas bases de datos y cuentas de usuarios son una rica tentación para el creciente ejército mundial de delincuentes digitales profesionales.

La idea en síntesis:toda tecnología digital

tiene sus parásitos

Uno de los usos potencialmente más lucrativos de los virus o gusanos informáticos consiste en crear una red encubierta de ordenadores infectados, a veces conocidos como zombis. Colectivamente, una red de máquinas zombis se conoce como una botnet. Tales redes pueden consistir en miles de aparatos bajo el control encubierto de un controlador que luego es capaz de contratar la red: normalmente para mandar cantidades enormes de correo spam, para obtener datos o para lanzar ataques coordinados contra una página web determinada, a la que

enormes cantidades de aparatos zombis accederán repetidamente, provocando potencialmente su colapso debido al enorme incremento del tráfico. Es lo que se conoce como Denial-of-Service o DoS.

Se cree que las mayores botnets del mundo contienen hasta 30 millones o más de máquinas infectadas, y que tienen la capacidad de mandar miles de millones de correos spam diarios o de colapsar cualquier página web, excepto las mayores y mejor protegidas. Tales servicios son una parte cada vez más valiosa del mercado negro de Internet.

Zombis a la venta

001-222 50 ideas digital.indd 87 22/02/2012 16:12:23

88 elladooscuro

El spam salió por primera vez a la luz pública a principios de la década de 1990, cuando el e-mail e Internet empezaban a abrirse al público general. Como el coste de mandar un e-mail era efectivamente cero, era posible utilizar ordenadores automáticamente para mandar enormes cantidades de e-mails no solicitados a millones de direcciones, en un esfuerzo para lograr que los incautos lectores de los mismos visitaran una página web concreta o hicieran algo que pudiera lucrar al spammer.

Este funcionamiento básico sigue activo hoy: enviar millones de men-sajes electrónicos es barato y fácil; rastrear a las personas que lo hacen es difícil, y se precisa solo que un pequeño porcentaje responda a los mensajes para generar el suficiente rendimiento y hacer que el proce-so valga al pena.

Origen de la palabra La palabra «spam» proviene de un sketch de la serie de TV inglesa Monty Python Flying Circus, de 1970, titulado «Spam»: en la escena aparecía una casa de comidas en la que práctica-mente cada plato ofrecía el producto de carne envasada Spam (una marca inglesa de 1937, cuyo nombre responde a su vez a la abreviatu-ra de Spiced Ham). El sketch, que terminaba con una canción sobre el Spam que acababa ahogando todas las otras palabras, llamó la aten-ción del público, y la palabra empezó a ser utilizada en informática en la década de 1980 para describir a los usuarios antisociales de las pri-meras salas de chat que llenaban deliberadamente la pantalla con gran-

cronología1978 1994 2000 2003 2011Primer mensaje de spam conocido

Primera irrupción del spam en el e-mail comercial

Acuñación del término SpaSMS para describir el spam por SMS

Primer spam de blog automatizado

Estimación anual de spams que se enviarán este año: cerca de siete billones

21  SpamCrea algo y siempre habrá alguien por ahí que intente explotarlo. Crea algo de uso gratuito —como el correo electrónico y la red— y las oportunidades de explotación serán casi ilimitadas. El correo electrónico no solicitado lleva años siendo una parte desagradable de la vida digital y, sin embargo, los miles de millones de mensajes basura que se mandan cada día son solo la punta del iceberg de enlaces, páginas web, blogs y maniobras basura varias que juntas constituyen una de las amenazas más importantes que hay sobre el futuro del propio Internet.

001-222 50 ideas digital.indd 88 22/02/2012 16:12:24

89 spam

des cantidades de texto sin sentido (incluida la propia palabra «spam»), con el fin de ahogar las conversaciones de los otros usuarios. Eso llevó también a que algunos usuarios adoptaran la práctica de llamar ham a los e-mails deseados.

Páginas de spam El correo electrónico es el tipo de spam más popular, pero la idea de generar automáticamente millones de mensa-jes engañosos para lucrarse está predeciblemente extendida en la cul-tura digital. Desde los servicios de mensajería instantánea hasta los mensajes de texto en los móviles, desde los foros de debate en Internet hasta los grupos de las redes sociales, el spam electrónico es universal. Los comentarios de spam son también un grave peligro en los blogs, y normalmente consisten en comentarios generados automáticamente que contienen enlaces a páginas de spammers, en un esfuerzo para ge-nerar tanto un mayor tráfico hacia esas páginas como para que aparez-can un mayor número de veces como resultado de las búsquedas.

cronología1978 1994 2000 2003 2011Primer mensaje de spam conocido

Primera irrupción del spam en el e-mail comercial

Acuñación del término SpaSMS para describir el spam por SMS

Primer spam de blog automatizado

Estimación anual de spams que se enviarán este año: cerca de siete billones

Un término acuñado en 1996, phishing, describe una táctica frecuente por la que los correos de spam y las páginas maliciosas intentan obtener detalles personales de usuarios incautos, que pueden ir desde los datos de conexión a la cuenta de e-mail y de la web, hasta los de la cuenta corriente o tarjeta de crédito. El scamming, en cambio, es el proceso más general por el que los spammers intentan sacar dinero de sus víctimas —una práctica asociada con los típicos trucos de scamming son los e-mails pidiendo al receptor que ayude a una supuesta tercera persona a sacar una gran suma de dinero de un país extranjero a cambio de una comisión—. Las triquiñuelas del phishing son más sofisticadas y conllevan la «pesca» de información

fingiendo ofrecer algún tipo de servicio o consulta legítimos que requiera información personal. Los mensajes pueden aparentar provenir de Hacienda, bancos, compañías de seguros y páginas web conocidas... y las técnicas de manipulación de los enlaces pueden hacer parecer que conectan con la página legal, en vez de hacerlo con una falsa. Además de las páginas falsas, también pueden usar números de teléfono, e incluso textos o mensajes instantáneos: un popular timo consistía en pedir a la gente que llamara a un número «gratuito» si querían indagar sobre un envío ficticio, algo que en realidad comportaba pasar una considerable cantidad de tiempo conectado a un número de teléfono extranjero pagando la tarifa más alta.

El phishing y el scamming

001-222 50 ideas digital.indd 89 22/02/2012 16:12:24

90 elladooscuro

Tras todo esto está la práctica cada vez más común de generar auto-máticamente blogs o páginas web enteras que no tienen más objetivo que conducir el tráfico hacia sitios y productos de spammers. Un blog spam —a veces conocido simplemente como splog— suele consistir bien en texto que ha sido robado de otras páginas, o bien generado automáticamente, junto a un enorme número de enlaces a la propia página del spammer. Según algunos cálculos, hasta un 20 por 100 de blogs consisten en este tipo de spam, mientras que cada hora se crean alrededor de un millón de páginas web generadas automáticamente y llenas de contenido spam.

Colapsar la red La cantidad y la sofisticación creciente del spam plantea graves problemas a Internet en cuanto al espacio y al ancho de banda que ocupa, además del daño que provoca a los resul-tados de las búsquedas y al tiempo que han de invertir los usuarios honestos de la red para gestionar la cantidad de spam que aparece en su correo electrónico y en sus propias páginas. Los filtros antispam son un gran negocio que se está desarrollando constantemente en pa-ralelo con las técnicas de spam. Eso ha llevado a algunos a usar la web limitándose a solo páginas concretas, fiables, en vez de arriesgarse a la exploración abierta.

El predominio del spam también ha llevado a una demanda de servicios como el buscador blekko, aparecido en 2010, y que permite a los usua-rios buscar solo páginas que han sido etiquetadas activamente por otros

Las cantidades invertidas en la producción y diseminación del spam significa que se trata de una actividad muy automatizada. Pero la automatización no se limita simplemente a mandar millones de e-mails idénticos. Se utilizan sofisticados spambots para actividades que van desde colarse en foros virtuales para hacerse con direcciones de e-mail, hasta colgar comentarios falsos y burlar la seguridad orientada a garantizar que solo los humanos pueden comentar o usar determinadas páginas. Hay spambots también usados para colarse en salas de chat, en canales IRC y en cualquier sitio en que la

gente pueda enfrascarse en una conversación virtual, agitando fórmulas simples para intentar que los usuarios cliquen en enlaces maliciosos o revelen detalles sobre ellos mismos. Un robot de chat puede, por ejemplo, fingir que es alguien que enlaza con material pornográfico, con una página que ofrece descuentos enormes, o sencillamente un sitio personal que suene interesante. Inevitablemente, estos robots también imitan servicios como Twitter o Facebook... aunque las rutinas de seguridad se actualizan a menudo y las cuentas de spam se borran, en un esfuerzo por minimizar las amenazas.

Hablando con robots

001-222 50 ideas digital.indd 90 22/02/2012 16:12:24

91 spam

usuarios como fiables y útiles, en vez de ir a páginas simplemente localizadas por el buscador gra-cias a una palabra introducida en él. Esta es también una de las ventajas de utilizar la red vía ins-trumentos como las aplicacio-nes del teléfono móvil en vez de simplemente buscando, porque estas tienden a requerir la apro-bación de las empresas, incluyen-do un elemento de control de ca-lidad y criterio humano en el proceso.

El coste global del spam en el mundo es dificilísimo de determinar, pero puede estar en las decenas de miles de millones de dólares en pérdida de tiempo, desperdicio de espacio y de ancho de banda, y de gasto en los programas y artilugios necesarios para controlarlo.

Actualmente, hasta las estimaciones más prudentes sugieren que el spam constituye más de tres cuartos de todos los e-mails mandados, y que las técnicas utilizadas por aquellos que los mandan se han ido so-fisticando en respuesta a la creciente sofisticación de los usuarios. En vez de usar sus propios sistemas informáticos para mandar los mensa-jes, los spammers despliegan redes «zombis» de otros dispositivos que han pirateado de usuarios incautos mediante el uso de virus. La reco-gida automática de direcciones de e-mail de páginas web y agendas —y la posterior venta de bases de datos de direcciones— también se ha vuelto cada vez más habitual, así como las colaboraciones entre di-ferentes tipos de spammers y entre gente especializada en distintos ti-pos de engaños digitales. Ha habido varios intentos por ilegalizar el spam y de castigar a las personas que lo ejercen, pero los spammers, sencillamente, trasladan su actividad de un país a otro para evitar la persecución.

La idea en síntesis:la comunicación sin costes comporta una 

creciente oleada  de basura

«No hay nada en la Constitución que nos obligue a escuchar o a mirar ninguna comunicación no deseada, sea cual sea su mérito.»sentenciadeltribunalsupremodeestadosunidos

001-222 50 ideas digital.indd 91 22/02/2012 16:12:24

92 elladooscuro

La privacidad se puede dividir a grandes trazos en dos campos. El pri-mero, el de los asuntos que se supone que son totalmente privados y protegidos de cualquier intento externo de acceder a ellos, desde la banca virtual y las adquisiciones hasta el acceso a cuentas de e-mail o de redes sociales. El segundo, las zonas de privacidad relativa, en las que la cuestión sigue siendo no solo la seguridad básica de un sistema, sino también la información y las actividades que deben ser accesibles a terceros, y qué terceros deben ser. Esto abarca cualquier cosa, desde la información de un perfil en las redes sociales hasta la información online sobre el autor de un blog, sobre un colaborador de un foro, so-bre el tema o el autor de un artículo o hasta, sencillamente, una ac-tualización de estado en una red social.

Identificación virtual Para la mayoría de usuarios, el propio In-ternet no es un medio en el que la privacidad absoluta pueda estar garantizada. Hay varias maneras básicas en las que cualquier aparato informático conectado a Internet tiende a ser identificado. El más im-portante es la dirección de Protocolo de Internet, o dirección IP, que suele expresarse en forma de una cifra en cuatro partes separada por puntos y que ofrece una dirección numérica específica para cada orde-nador de una red.

Las direcciones IP, a menudo, pero no siempre, permiten determinar la localización de alguien que utiliza Internet, y son también impor-tantes cuando una organización o un individuo desea impedir el acceso

22  PrivacidadInternet es un nuevo tipo de espacio público: una red de sitios, servicios y recursos interconectados que contiene una cantidad de información valiosa y cada vez mayor tanto sobre el mundo como sobre las personas individuales. Inevitablemente, el problema de lo privado se ha convertido en uno de los debates más polémicos y complejos de la era digital. ¿A cuánta información de los demás hemos de ser capaces de acceder, o revelar de nosotros mismos, en la red?

cronología1998 2007 2009 2010El Reino Unido aprueba La Ley de Protección de Datos

Lanzamiento del Google Street View Se determina que Facebook abre una brecha en la ley de privacidad canadiense

La red de Gawker es pirateada

001-222 50 ideas digital.indd 92 22/02/2012 16:12:24

93 privacidad

a o desde páginas en una lista negra. Los Proveedores de Servicios de Internet o ISP están en posición de controlar no solo la información general sobre la localización de sus usuarios, sino también las especifi-caciones de los datos enviados a o desde ordenadores concretos, algo que legalmente tienen totalmente prohibido hacer en circunstancias normales, pero que en circunstancias excepcionales se les puede pedir judicialmente que hagan. Por este motivo, hay personas que utilizan los «servicios de anonimato», destinados a ocultar los detalles de la actividad online de un ISP.

Conexiones seguras El único y más cru-cial componente de la privacidad virtual para la mayoría de transacciones importantes es la en-criptación (también tratada en el capítulo 30 so-bre e-comercio). Normalmente, una dirección web empieza con las letras http, que significa HyperText Transfer Protocol. Sin embargo, hay veces en que una dirección web empieza por las letras «https», lo que indica que el sitio utiliza

«El mero hecho de que algo sea públicamente accesible no significa que la gente quiera verlo hecho público.»danahboyd

cronología1998 2007 2009 2010El Reino Unido aprueba La Ley de Protección de Datos

Lanzamiento del Google Street View Se determina que Facebook abre una brecha en la ley de privacidad canadiense

La red de Gawker es pirateada

Algunas de las brechas más controvertidas en la privacidad online de los últimos años han ocurrido gracias a vulnerabilidades en los sistemas con los que funcionan los servicios virtuales. Una de las más graves de los últimos tiempos fue el pirateo de la red de blogs Gawker, que a finales de 2010 reveló que un grupo de hackers había entrado en sus servidores y se había hecho con los detalles de 1,3 millones de cuentas de usuarios. Las contraseñas estaban codificadas, pero las contraseñas sencillas fueron vulnerables a un ataque de «fuerza bruta»... y muchos usuarios que

habían replicado los detalles de acceso por distintos servicios online se encontraron con que sus cuentas de Twitter se estaban usando para enviar spam después del hack. El hack de Gawker dio a entender la importancia de utilizar distintos códigos de acceso para los distintos servicios online, además de usar contraseñas complejas no fácilmente susceptibles a la descodificación por fuerza bruta o a la deducción basada en listas de contraseñas habituales. Las contraseñas hackeadas más habituales en el caso Gawker fueron: 123456, password, 12345678, qwerty, abc123 y 12345.

Filtraciones de datos

001-222 50 ideas digital.indd 93 22/02/2012 16:12:24

94 elladooscuro

una conexión «segura», lo que a menudo también se indica con la presencia de un icono que representa un candado en la ventana del navegador.

Clicar en este icono suele revelar los detalles acerca de la seguridad que una página web concreta utiliza. Para que una conexión sea ge-nuinamente privada y segura han de cumplirse una serie de condicio-nes. La primera es que el propio navegador esté a pleno rendimiento y no comprometido por software malicioso. La segunda, la página segu-ra que se visita ha de tener un «certificado» electrónico válido apoya-do por una autoridad válida. Una vez entablada la conexión fiable, se pueden transferir los datos entre un usuario y una web en forma en-criptada, lo que significa que solo puede leerlos el destinatario, gracias a un complejo algoritmo matemático que solo puede descodificarse con una clave concreta. Para que todo eso sea totalmente seguro, la encriptación ha de resultar imposible de descodificar para cualquiera que intercepte el tráfico en la red.

Cookies La encriptación y la certificación son la base de las inte-racciones virtuales más sensibles. Sin embargo, para la mayoría de ac-tividad virtual corriente, las brechas más habituales de la privacidad se centran en las cookies —fragmentos de información que se almace-nan automáticamente en el ordenador de un usuario de la red para permitir a las páginas web hacer cualquier cosa, desde recordar las preferencias de un usuario hasta ofrecer una interfaz compleja—. La mayoría de cookies son benignas y son parte esencial de la navega-ción, pero su naturaleza semiinvisible significa que algunas se pueden utilizar para controlar más sobre el comportamiento virtual de alguien de lo que el usuario es consciente. En concreto, las llamadas tracking cookies instaladas por terceros en algunas páginas web pueden permi-tir a los publicistas hacerse una imagen del historial virtual de alguien. Todos los navegadores modernos permiten a los usuarios aceptar o no las cookies en general, y las de terceros en concreto, aunque hay pági-nas que las necesitan para funcionar correctamente.

Compartir información Aparte del hacking y del uso de soft-ware malicioso, de lejos, las mayores amenazas a la privacidad en el moderno Internet proceden de una consciencia insuficiente por parte de los usuarios y por compartir configuraciones en distintos servicios online, y de cómo hay información que puede recogerla y explotarla mucha gente, desde agencias de marketing hasta ladrones de identi-dades. Buena parte del problema es que las configuraciones por defec-to de la privacidad en muchos sitios que animan a los usuarios a dar sus detalles personales pueden permitir más exposición de los datos de los que los usuarios están dispuestos a asumir. Revisar y cambiar estas configuraciones si es preciso debería ser una de las primeras co-

001-222 50 ideas digital.indd 94 22/02/2012 16:12:24

95 privacidad

sas que hace alguien después de haberse apuntado a cualquier servicio que haga uso de la información personal. Es esencial ser consciente de qué información personal puede ver cualquiera que busque en una página, la cual pueden consultar los miembros de una red compartida o de un grupo de cualquier tipo, y cuál puede ver la gente indicada como «amigos» directos o contactos.

Legislación Tal vez por encima de todo, el futuro de la seguridad en la red está en manos de los gobiernos y las corporaciones, y en la legislación y negociación por los derechos de los ciudadanos a la pri-vacidad y los derechos de las empresas a lucrarse recogiendo e inter-cambiando datos sobre hábitos de consumo. Desde la Ley de Protec-ción de Datos de 1998 del Reino Unido, hasta la Ley de Protección de la Privacidad Virtual de 2003 de California, y otras, hace ya más de una década que se están definiendo políticas sobre estos nuevos retos, pero no serán totalmente efectivas hasta que no coincidan con una población realmente consciente de la naturaleza compleja y cambian-te de la privacidad digital.

La idea en síntesis:la privacidad  

absoluta es un material digital raro

En enero de 2011, la edición británica de la revista Wired imprimió un número limitado de portadas «ultrapersonalizadas» como demostración de lo mucho que puede encontrarse sobre las personas en la red. Mandadas a una selección de lectores, las portadas se habían apoyado enteramente en fuentes virtuales abiertas, incluyendo el censo electoral, Companies House, el Registro de la Propiedad, datos públicos en las redes sociales y actualizaciones y materiales relacionados con amigos y familia, todos ellos interrelacionados.

Algunas de las portadas personalizadas incluían detalles como el número de móvil, el cumpleaños, la dirección, visionados recientes, compras recientes, detalles de la esposa/o e hijos, y actos recientes a los que habían asistido. Como el propio editor constataba: «Los receptores no han de preocuparse sobre qué ocurre ahora con estos datos: solo ellos han recibido el ejemplar con sus datos personales, y desde entonces hemos destruido nuestra base de datos. Pero sí sabéis que estos datos están por ahí para siempre, ¿no?».

¿Qué sabe de ti la web?

001-222 50 ideas digital.indd 95 22/02/2012 16:12:24

96 elladooscuro

Las partes «profundas» de la web son distintas de lo que a veces se menciona como la web «oscura» (dark). Los sitios oscuros son aque-llos a los que ya no se puede acceder en absoluto y, por lo tanto, se han «oscurecido» gracias a la interrupción en los procesos por los que se dirige el tráfico. Los sitios profundos existen, pero, por una serie de motivos, no son visibles para los buscadores y el usuario in-formal de la red.

Tal vez el tipo más habitual de página web perteneciente a la web profunda es la dinámica: es decir, aquella cuyo contenido y ubicación no son fijos, sino que se generan en respuesta a peticiones o necesida-des específicas, imposibilitando su inmovilización. Entre ellos se pue-den encontrar cosas tan sencillas como los horarios de las llegadas de trenes, puesto que es información que cambia constantemente, evi-tando que la misma sea gravada o indexada de manera permanente.

Las bases de datos son otra gran categoría de página potencialmente invisible, puesto que hay muchas fuentes grandes de información que no se incluyen simplemente en páginas que puedan indexar los busca-dores, sino que se almacenan en servidores y solo aparecen online como resultado de peticiones de los usuarios de la web, que generan una página con un par de resultados incluidos pero dejan la parte principal de la base de datos oculta.

23  La web profundaLa World Wide Web consiste en muchos miles de millones de páginas web, servicios y listados de datos. Y sin embargo, estos datos visibles y accesibles, según algunos cálculos, representan menos del 1 por 100 de toda la actividad e información de cualquier tipo que existe realmente en la red. Buena parte de esta información está por capas subyacentes a la superficie por la que los usuarios corrientes son capaces de navegar: de aquí que usemos el término «web profunda» (deep web) para describir una zona cambiante y misteriosa que a veces se conoce también como web invisible u oculta.

cronología1994 2002 2003Se acuña la frase «web profunda» (invisible web) Microsoft publica un artículo sobre las redes oscuras

para compartir archivosSe crea la aplicación WASTE

001-222 50 ideas digital.indd 96 22/02/2012 16:12:24

97 lawebprofunda

Las páginas protegidas por contraseñas o con contenido privado cerrado a los bus-cadores y a la navegación casual también están efectivamente ocultadas. Eso pue-de aplicarse también a mucho del conte-nido de sitios como las redes sociales, que no es abiertamente visible y requiere una cuenta y cierto nivel de privilegio para poder acceder. En Facebook, por ejemplo, a pesar de las preocupaciones por la privacidad, no es posible navegar sencillamente por toda la infor-mación asociada con todas las cuentas: a menos que seas «amigo» de alguien, lo único que a menudo puedes ver de una persona es su nom-bre, como mucho.

Finalmente existe en la red un contenido dispuesto en un formato tal que los buscadores no pueden indexarlo. Como los buscadores están mejoran-do constantemente, cada vez hay más de estos contenidos que se vuelven accesibles, pero el contenido de muchos sitios puede seguir siendo opaco, como los documentos en PDF, los textos de libros escaneados, archivos

«La inmensidad de la web profunda... me dejó totalmente pasmado. No dejábamos de dar vueltas y descubrir más y más cosas.»michaelK.bergman

En el misterioso mundo del envío de archivos privados y de los intentos de acceder o transferir información difícil de obtener, el envío electrónico de archivos no es la única ni siempre la técnica más efectiva. Intentar acceder a un ejemplar todavía inédito de una película o disco, por ejemplo, puede suponer intentar obtener el archivo de un sistema seguro, en cuyo caso lo más fácil puede ser copiarlo físicamente en un disco o flash drive, más que intentar usar una red. De manera similar, el filtrado original de WikiLeaks en 2010 de cables diplomáticos se obtuvo copiando

archivos en un flash drive desde un sistema seguro, no por transferencia electrónica. Usar la distribución física de archivos electrónicos se conoce a veces como sneakernet —es decir, una red apoyada en el uso de un mensajero humano (que usa sneakers o zapatillas silenciosas)—. En el caso de archivos extremamente grandes, eso puede ser, de hecho, más rápido que la transmisión electrónica, puesto que el tiempo que se tarda en trasladar un disco físico con grandes cantidades de información puede ser menor que el que tardamos en enviar la información por una red.

Entregado a mano

cronología1994 2002 2003Se acuña la frase «web profunda» (invisible web) Microsoft publica un artículo sobre las redes oscuras

para compartir archivosSe crea la aplicación WASTE

001-222 50 ideas digital.indd 97 22/02/2012 16:12:24

98 elladooscuro

de imágenes que no han sido etiquetados o incluso sitios que no han sido lo bastante bien diseñados según las convenciones estándar en la web.

La profundidad creciente Como hemos sugerido antes, la web profunda existe en parte debido a las limitaciones en los procesos que utilizan los buscadores para crear índices de páginas web y recur-sos online. Los buscadores mejoran continuamente, pero el tamaño de la web profunda también crece, para preocupación de todos aque-llos que creen que la apertura de la web es su virtud más fundamental.

Los motivos esenciales del crecimiento del contenido virtual invisi-ble, «profundo», son la creciente complejidad de las aplicaciones ba-sadas en la red y la creciente cantidad de información que se almace-na en los «silos de información» —sistemas cerrados incapaces de intercambiar información con otros sistemas externos—. Las redes sociales son un ejemplo de ello, como lo son la mayoría de servicios virtuales complejos, como los sitios de videojuegos, las aplicaciones web de negocios y viajes, los sistemas de banca, las tiendas de aplica-ciones patentadas y un número creciente de sitios de e-comercio que ofrecen experiencias a medida de cada usuario.

En muchos de estos casos, la privacidad es básicamente para los deta-lles personales. Pero el problema más grande está en una de las ofertas registradas —es decir, cerradas y a veces de pago— de los servicios virtuales, más que en el uso de formatos abiertos. Apple, por ejemplo, está acusada por algunos de crear grandes silos de información en la red gracias a la exclusividad de aplicaciones y sistemas operativos para sus aparatos móviles y tablets: los usuarios pasan buena parte de su tiempo no en el Internet abierto, sino en un entorno cerrado de soft-ware y hardware solo de Apple. De manera similar, con un número creciente de sistemas de acceso de pago o solo para socios que se está aplicando a muchos recursos virtuales, como los periódicos, el flujo abierto de información y de opinión queda interrumpido, y partes en-teras de la web desaparecen efectivamente en las «profundidades».

Redes oscuras Además del contenido invisible, Internet contie-nen también muchos grupos privados u ocultos de un tipo bastante dis-tinto. A veces conocidas como «redes oscuras» (darknets), son estructu-ras utilizadas para la comunicación y la compartición de archivos fuera del acceso de los usuarios corrientes de la red, potencialmente para acti-vidades ilegales o cuasiilegales. El término darknet se empezó a utilizar

«Como hay más gente que lo hace todo por la red, más partes habrá de tu vida que no quieres que formen parte de tu personaje público virtual.»

dannyo’brien

001-222 50 ideas digital.indd 98 22/02/2012 16:12:24

99 lawebprofunda

bastante antes que la web, en la década de 1970, para referirse a las redes in-formáticas capaces de interactuar con ARPANET (el proto-Internet), pero que por motivos de seguridad no apare-cían en ninguna lista ni índice y eran prácticamente invisibles para los usua-rios corrientes.

Actualmente, las darknets suelen cen-trarse en redes de compartición de ar-chivos que se basan en intercambios entre amigos o privados. Los contactos se hacen solo entre personas que se co-nocen o que confían entre ellas, y mu-chas de ellas implican la ocultación de la ubicación de ambos participantes. Tales intercambios no requieren nin-gún uso de la World Wide Web y son casi imposibles de detectar o cerrar sin infiltrarse activamente en la red.

Hay programas que facilitan estos in-tercambios, como el WASTE, apare-cido en 2003 y que toma su nombre de un sistema postal clandestino de la no-vela de Thomas Pynchon La subasta del Lote 49. El WASTE permite al usuario establecer redes descentralizadas uno a uno, incluyendo servi-cios como el chat, la mensajería y los protocolos de intercambio de ar-chivos. Ofrece, además, un nivel alto de encriptación. Las redes des-centralizadas como esta son en realidad imposibles de cerrar, y no con-tienen ningún enlace clave ni maneras de medir su extensión. En gene-ral, una red individual puede estar constituida por menos de cien personas que comparten archivos e información. Tales redes pueden resultar herramientas efectivas tanto para el ciberactivismo —como en la transmisión de datos hecha por los famosos cables diplomáticos de WikiLeaks filtrados al mundo en 2010— como el ciberterrorismo, o sencillamente para el intercambio privado de archivos obtenidos legal, semilegal o ilegalmente, desde películas hasta fotos o textos.

La idea en síntesis:buena parte del 

mundo digital yace bajo la superficie

Calcular el tamaño de la red visible es una tarea difícil, lo que significa que calcular el de la web profunda es todavía más complicado, pero hasta los cálculos más conservadores cifran en varios cientos de veces el tamaño de la web visible. La mayor parte de estos datos invisibles no son ni misteriosos ni ilegales, son simplemente inaccesibles. Según ciertas estimaciones, el mayor sitio «profundo» de la web han sido históricamente las bases de datos del National Climatic Data Center de Estados Unidos (NCDC), que son públicas, pero accesibles mediante petición en la página en vez de estar indexadas por los buscadores. La base de datos del NCDC está seguida por la NASA; aunque, con más de 600 millones de usuarios, la cantidad de datos que contienen hoy en día los servidores de Facebook es probable que eclipsen incluso estos registros.

¿A qué profundidad?

001-222 50 ideas digital.indd 99 22/02/2012 16:12:24

100 elladooscuro

24  HackingHoy en día predomina el uso peyorativo de la palabra hacking para describir el proceso de irrumpir en un sistema, red o programa informático en contra de los deseos de su propietario. Ya sea por el placer de hacerlo, para transmitir algún tipo de mensaje o para sacar partido de la hazaña. Sin embargo, la cultura y la historia del hacking son mucho más ricas y representan una clandestinidad digital continuada que puede ser innovadora y tener carácter público, aunque conserve su espíritu confesadamente libertario.

El uso digital de la palabra hacking se remonta al MIT en la década de 1960, cuando los estudiantes empezaron a desmenuzar los programas informáticos y a encontrar maneras de sortear los problemas y obs- táculos que el diseño original de los mismos no era capaz de superar... o sencillamente, a conseguir que un programa hiciera algo que estaba fuera de sus especificaciones originales.

Esta acepción de la palabra hack se ha conservado, usada por los pro-gramadores cuando hablan de hallar un quick hack, o un ugly hack, o tal vez un neat hack, para sortear un problema específico con el soft-ware o el hardware y que le permite ser usado con éxito cuando ante-riormente fallaba. En los ordenadores muy primitivos, la memoria para hacer funcionar programas era muy limitada, de modo que un hack consistía a menudo en desmenuzar un programa en fragmentos más pequeños para hacerlo funcionar correctamente.

En aquellos tiempos, ser hacker era un halago. Significaba ser un pro-gramador experto y habilidoso. La palabra tenía también un significa-do más amplio del que ha sobrevivido hasta hoy, el de alguien dispues-to a encontrar maneras no convencionales de usar cualquier sistema, y a desobedecer las normas establecidas en caso de necesidad. Como uno de los antiguos alumnos del MIT lo describió, significaba, más que nada, ser «juguetonamente astuto». Para algunas personas, este sentido posi-tivo de la palabra hacker sigue siendo su verdadero significado.

cronología1963 1971 1983 1999Primer uso conocido del término hack en sentido digital, en el MIT

La revista Esquire publica un artículo sobre el phone phreaking

El hacker estudiantil Neal Patrick aparece en la portada de Newsweek

Un chico de 15 años entra en los ordenadores del Departamento de Defensa de Estados Unidos

001-222 50 ideas digital.indd 100 22/02/2012 16:12:24

101 Hacking

El hacking telefónico Hacia la década de 1970 se puso de moda otra forma de hacking en forma de phone phreaking —colarse en siste-mas telefónicos con el fin de obtener llamadas gratuitas—. Esto se hacía mediante técnicas diversas, pero normalmente consistía en que un usuario imitaba los tonos utilizados en las llamadas estadouniden-ses para llamadas de larga distancia, ya fuera mediante silbidos o con aparatos caseros.

Trucos similares habían sido utilizados durante décadas, pero fue en la de 1970 cuando obtuvieron categoría de cultura underground, con al-gunas bromas que se han hecho legendarias, como una llamada al Va-ticano alegando que venía de Henry Kissinger, hecha por Steve Woz-niak, quien más tarde fundaría Apple con otro conocido bromista, Steve Jobs.

El poder de la informática personal Mientras la cultura hacker, nacida en el MIT en la década de 1960, seguía desarrollándose por el Internet de los inicios y por los sistemas informáticos instalados en instituciones académicas, fue la irrupción de los microprocesado-

Aunque a muchos les puede sonar como algo siniestro, un hackerespacio no es un antro lleno de ladrones informáticos, sino más bien algo así como un laboratorio público abierto para aquellos comprometidos con un tipo de hacking menos convencional: gente interesada en el «bricolaje» tecnológico y el uso y diseño de sus propias herramientas y proyectos digitales. La subcultura que rodea tales esfuerzos de «bricolaje» se conoce también como cultura «creadora» (maker), en referencia a su énfasis en que las personas puedan efectivamente construir y entender las herramientas digitales que utilizan en

una época en la que los intríngulis de cualquier aparato electrónico siguen siendo un misterio para la mayoría. Actualmente, en Estados Unidos hay más de cien hackerespacios dedicados a compartir conocimientos, equipos, consejos y experiencia, y que celebran las posibilidades de la cultura digital no corporativa. En la red, el blog Boing Boing es un canal popular para los productos de la cultura creadora, y su cofundador, el autor Cory Doctorow, es un defensor declarado de las virtudes de pensar más allá de las limitaciones buscadas por el hardware, el software, los modelos de negocio y las actitudes tecnológicas modernas.

Hackerespacios

cronología1963 1971 1983 1999Primer uso conocido del término hack en sentido digital, en el MIT

La revista Esquire publica un artículo sobre el phone phreaking

El hacker estudiantil Neal Patrick aparece en la portada de Newsweek

Un chico de 15 años entra en los ordenadores del Departamento de Defensa de Estados Unidos

001-222 50 ideas digital.indd 101 22/02/2012 16:12:25

102 elladooscuro

res y la posterior revolución de la informática casera de los años ochenta lo que puso tanto la tecnología como la noción de hacking al alcance de millones de personas

Los que utilizan hacks informáticos para sortear los sistemas de seguridad digitales son también conocidos como crackers, un término que mu-chos de los que identifican hacking con su sentido original positivo sienten que es el único que de-bería usarse para describir esta actividad. Fue en 1983 cuando el cracking llegó quizá por vez pri-mera al conocimiento público, gracias tanto al

estreno de la película Juegos de guerra —en la que un genio adolescente de la informática logra desatar una guerra nuclear colándose en el sis-tema informático de defensa nacional— como al caso real del grupo de piratas conocido como Los 414, que el FBI identificó aquel año como los responsables de haberse colado en una serie de sistemas informáti-cos seguros por toda Norteamérica.

Cómo forzar la entrada La mayoría de irrupciones en ordena-dores se hacen explotando las vulnerabilidades conocidas del software, como los sistemas operativos, para obtener el acceso a datos protegi-dos, o intentando infiltrar en el sistema programas maliciosos —mal-ware— con el fin de obtener el control sobre el mismo o para instalar una «puerta trasera», un sistema de acceso que solo pueden utilizar los «piratas». Esto es aparte, por supuesto, de tal vez la manera más efec-tiva y más difícil de evitar de todas: corromper al factor humano y lo-grar la obtención de códigos o contraseñas o de información privile-giada de alguien asociado al sistema al que queremos acceder.

Como se describe al principio del capítulo 20, hay muchas varieda-des de programas maliciosos utilizados para hacerse con el control de un ordenador. Las infecciones suelen ocurrir o bien vía correo elec-trónico, o bien descargando o copiando archivos infectados. Los tipos más habituales de malware incluyen los caballos troyanos, los virus y los gusanos; los ordenadores también pueden estar infectados sin que su usuario lo sepa, lo que deja abierta una ventana tanto al robo de información como al uso de ese ordenador para el envío de otras in-fecciones o ataques masivos a otros sistemas.

Otros programas utilizados para ayudar a la piratería incluyen los «es-cáneres de vulnerabilidad» y los «escáneres de puerto», que exploran respectivamente si los ordenadores en red tienen alguna serie de debi-lidades conocidas, y si algún «puerto» o punto de acceso de datos está potencialmente abierto a la invasión. Los datos que se transmiten a través de una red pueden ser también potencialmente leídos por un programa sniffer, si su encriptación no es lo bastante segura.

«Buena parte del hacking consiste

en jugar con otras personas.»

steveWozniak

001-222 50 ideas digital.indd 102 22/02/2012 16:12:25

103 Hacking

Abundan las técnicas mucho más sofisticadas que esta, que explotan cualquier cosa, desde el conocimiento particular sobre los puntos de «desbordamiento» de memoria en sistemas individuales, hasta los in-tríngulis de los root kits diseñados para ocultar cualquier prueba de que un sistema informático ha sido manipulado. Una de las pocas certezas en todo esto es que la carrera entre aquellos que buscan colarse y aquellos que intentan mantenerlos fuera está aquí para durar indefini-damente, y que los conocimientos de las mejores mentes hackers son urgentemente requeridos por los creadores de nuevos sistemas si quie-ren mantener a los piratas y alborotadores a raya.

La idea en síntesis:siempre habrá

alguien dispuesto  a infringir las 

normas

Hay mucha gente distinta involucrada en el hacking y, como resultado, se ha desarrollado en la comunidad virtual una clasificación semioficial de los distintos tipos de hacker que diferencia entre expertos y aficionados, malintencionados e ideológicos, etc. Los grupos principales son los black hats, que suelen practicar actividades malignas con fines lucrativos; los white hats, que tienen buenos motivos para hackear, como comprobar los sistemas de seguridad; los hacktivistas, que lo hacen por motivos ideológicos concretos y para llamar la atención hacia una causa; los script kiddies, que carecen de experiencia y ejercen formas básicas

de hacking mediante rutinas automatizadas conocidas como scripts para entrar en sistemas informáticos (el término es intencionadamente desdeñoso); los blue hats, que trabajan en un ordenador oficial o en una empresa de seguridad que intenta identificar y solventar los problemas potencialmente explotables; y los hackers de élite, que pueden pertenecer a uno o varios colectivos virtuales oscuros y prestigiosos, y que se consideran los operadores más expertos de todos y normalmente son inventores de nuevos códigos, hazañas y maneras de descifrar los sistemas informáticos supuestamente más seguros.

Tipos de hacker

001-222 50 ideas digital.indd 103 22/02/2012 16:12:25

104 elladooscuro

25  CiberguerraComo el nombre sugiere, la ciberguerra es la versión digital de la guerra: un estado contra el otro, no con armamento físico sino con armas virtuales, pensadas para perjudicar o comprometerse su infraestructura digital. La infraestructura digital desempeña una función cada vez más importante en las capacidades ofensivas y defensivas de la mayoría de naciones, la capacidad tanto de defenderse como, si es necesario, de «desplegar» cibertécnicas como parte de la guerra o de las tareas de espionaje es una preocupación moderna clave para los estamentos militares, que además requiere instrucciones elaboradas, juegos de guerra e innovación tecnológica.

Como la mayoría del resto de formas no convencionales de guerra, la ciberguerra implica mucho más que objetivos militares. Los ataques digi-tales contra un país pueden proponerse perjudicar sus estructuras de go-bierno en general, además de su infraestructura militar en particular, sus estructuras financieras y económicas, y sus infraestructuras en general. En todos estos casos, la división entre las técnicas digitales y las conse-cuencias en el mundo real puede ser extremamente fina. Las bolsas son, esencialmente, entidades digitales, pero con una importancia real pro-funda. Las redes de transporte —por carretera, aire, ferrocarril y mar— se apoyan todas ellas en mayor o menor grado en la tecnología para fun-cionar, y pueden quedar gravemente alteradas por los ataques digitales.

De manera similar, el suministro energético y de telecomunicaciones, aunque funciona por redes más seguras que la World Wide Web, pue-de quedar potencialmente mermado por técnicas de infiltración bas-tante avanzadas. De hecho, uno de los aspectos más notables de la ci-berguerra es la relativa dificultad e inconveniencia de atacar objetivos militares concretos, que tienden a funcionar con sistemas informáti-cos de alta seguridad, si se compara con el daño profundo que se pue-de causar a un país si se atacan recursos digitales civiles, comerciales o gubernamentales.

cronología1999 2007 2008 2010Hackers serbios atacan sistemas de la OTAN

Se produce el mayor ciberataque en la historia de EE.UU.

Se determina la política de ciberdefensa de la OTAN

EE.UU. nombra a su primer general de la ciberguerra

001-222 50 ideas digital.indd 104 22/02/2012 16:12:25

105 ciberguerra

Técnicas Las técnicas utilizadas en la ciberguerra se pueden divi-dir a grandes rasgos en las del espionaje: recabar información secreta para ganar ventaja; y las del sabotaje: infringir daños en un aspecto de la infraestructura digital. De estas dos, hay varios tipos de espionaje que son más comunes a nivel global, ya que las naciones tienen mu-cho que obtener si recaban encubiertamente información sobre sus potencias rivales. Podría decirse que eso no constituye realmente «guerra», y que la mayoría de acciones como esta es poco probable que fueran tratadas por un estado como actos de guerra. El sabotaje y

«Nuestros adversarios encontrarán nuestro eslabón más frágil

y lo explotarán, ya sea de propiedad y gestión pública o privada.»

Keithalexander

En 2007, Estado Unidos experimentó lo que un antiguo oficial del Departamento de Estado (Interior) describió como «nuestro Pearl Harbour electrónico», cuando una potencia extranjera todavía desconocida se coló en los sistemas informáticos de muchas de las agencias militares y de alta tecnología del país, incluidos el del Departamento de Defensa, el Departamento de Estado, el Departamento de Comercio y quizá también la NASA. Se copiaron varios terabits de información —casi tanto como todo el contenido de la Wikipedia—. La enorme brecha

de seguridad se consiguió con un método sencillo: se introdujo codificación maliciosa en un flash drive que luego fue enchufado a un portátil militar en Oriente Medio, y una vez en el aparato, el código maligno fue capaz de extenderse sin ser detectado a través de redes militares secretas. Se trató de un ataque a la seguridad muchas veces más grave que el famoso filtrado de WikiLeaks en 2010, en que se dieron a conocer miles de cables de embajadas estadounidenses, transmitidas por un soldado americano que había descargado los datos cuando se encontraba en Irak.

El mayor asalto

cronología1999 2007 2008 2010Hackers serbios atacan sistemas de la OTAN

Se produce el mayor ciberataque en la historia de EE.UU.

Se determina la política de ciberdefensa de la OTAN

EE.UU. nombra a su primer general de la ciberguerra

001-222 50 ideas digital.indd 105 22/02/2012 16:12:25

106 elladooscuro

el vandalismo, en cambio, son técnicas más tendentes a ser desplega-das por individuos o grupos reducidos, y potencialmente por aquellos que desean enfrascarse en «ciberterrorismo», para los cuales causar el máximo trastorno sería una prioridad.

A lo largo de la pasada década, la contrainteligencia cibernética se ha convertido en una considerable área de inversiones, y en particu-lar desde que se produjo un importante ciberataque de origen ruso contra Estonia en 2007. Como respuesta, la OTAN estableció un Centro de Ciber-Defensa en Tallin, la capital estonia, y en 2008 formuló una política oficial de ciberdefensa, política que fue reitera-da en su cumbre de 2010, en la que se afirmó que «la rápida evolución y creciente sofisticación de los ciberataques hacen de la protección de los sistemas de información y de comunicación de los Aliados una ta-rea urgente para la OTAN, de la que depende su seguridad futura».

DDoS Los ataques de 2007 a Estonia tuvieron por objetivo pági-nas web comerciales, gubernamentales y mediáticas, y adoptaron la forma de uno de los métodos más potentes de asalto: los llamados DDoS, o ataques de Distributed Denial of Service. En estos, las pági-nas se ven inundadas por decenas o hasta cientos de miles de visitas, colapsando la capacidad de operación de sus servidores. Tales ata-ques se convirtieron en titulares de prensa otra vez a finales de 2010,

Las simulaciones son una de las manera más efectivas de entrenarse y modelar las consecuencias potenciales de las acciones militares, algo que es especialmente cierto en los conflictos virtuales. En febrero de 2010, una simulación de este tipo en Estados Unidos modeló lo que podría pasar si millones de teléfonos y ordenadores en ese país quedaran afectados por software malicioso, convirtiéndolos en un enorme botnet capaz de ser operado a distancia y de lanzar ataques a páginas web y redes. El resultado, escenificado a lo largo de cuatro días con muchos antiguos miembros del gobierno implicados, era de decenas de millones de estadounidenses privados de electricidad y los mercados de valores cerrados, gracias en parte a la capacidad limitada del gobierno de controlar y poner en cuarentena a los aparatos electrónicos de propiedad privada como los teléfonos móviles. En parte como respuesta a tales simulaciones, actualmente se está debatiendo una legislación de emergencia a desplegar en caso de ciberemergencias en Estados Unidos y en otros países; y en mayo de 2010, Estados Unidos nombró a su primer general explícitamente al mando de la ciberguerra, Keith Alexander.

Jugando a la ciberguerra

001-222 50 ideas digital.indd 106 22/02/2012 16:12:25

107 ciberguerra

cuando fueron utilizados tanto para atacar el polémico sitio web Wi-kiLeaks como, posteriormente, en una serie de ataques «venganza» orquestados contra páginas corporativas como la de PayPal, que se percibían en colisión con los oponentes de WikiLeaks.

Los ataques DDoS son una forma muy visible de ataque virtual, pero rastrear a sus responsables puede resultar extremamente difícil, puesto que normalmente lo hacen mediante redes no conscientes de compu-tadoras «zombis» controladas por un hacker que emplea software ex-tendido maliciosamente.

Otras técnicas de ciberguerra incluyen la inter-cepción y modificación de la información digi-tal, y el descifrado de encriptaciones, ya sea a base de infectar los sistemas con software mali-cioso, sondeando las redes objetivo desde fuera para tratar de buscar vulnerabilidades que per-mitan la extracción de datos, o con la captura y tergiversación del hardware que hace funcio-nar los programas con las encriptaciones que se quieren descifrar.

Está muy extendida la idea de que China es la primera potencia mun-dial en capacidad de ciberespionaje, gracias a la inversión continuada que ha hecho en este campo, a su fuerza de trabajo especializado y a una predisposición a utilizar a fuerzas de voluntarios civiles para sus operaciones. Hay más de treinta importantes corporaciones estado-unidenses que han experimentado ataques a su infraestructura digital originados en China —incluido el caso más famoso, Google, que men-cionó un ataque contra su infraestructura corporativa a principios de 2010 como uno de sus motivos para retirar sus operaciones de la Chi-na continental. Pero la capacidad de tales acciones está creciendo a escala internacional, con un sector de ciberguerra global que se estima superior a unos 12.000 millones de dólares a finales de 2011, convir-tiéndolo en la mayor área mundial de gasto en defensa.

La idea en síntesis:la web es una zona  

de guerra

«El problema de Internet es que está pensado para la comunicación entre no amigos.»Whitfielddiffie

001-222 50 ideas digital.indd 107 22/02/2012 16:12:25

108 placeryocio

Los primeros servicios de red social empezaron a aparecer a mediados de la década de 1990 y ofrecían básicamente servicios de chat, que imitaban el modelo de las comunidades que se habían desarrollado en los tablones anteriores a la web y de los primeros foros. Por ejemplo, theGlobe.com fue fundado en 1994 por dos estudiantes de Cornell. Inspirado por el atractivo social de las salas de chat, el sitio ofrecía básicamente espacios digitales mejorados para que la gente pudiera colgar información pública sobre ellos mismos y sus intereses.

Esta página, theGlobe.com, se convirtió en el ejemplo para el boom de Internet de finales de la década de 1990, y batió el récord de au-mento en un primer día en el precio de sus acciones en su salida a Bolsa, que fue del 606 por 100. Pero en un año el precio de sus accio-nes se había hundido. Otras páginas corrieron mejor suerte: en 1995, un sitio llamado Beverly Hills Internet —luego rebautizado como GeoCities— empezó a invitar a los usuarios a crear sus propias pági-nas gratuitas dentro de distintas «ciudades» virtuales ordenadas por temas.

A finales de la década de 1990 se habían fundado varios tipos distin-tos de redes sociales. Había comunidades de interés general como theGlobe.com, que ofrecía páginas de perfil de usuario cada vez más

26  Las redes sociales

Las redes sociales son la tendencia definitoria de la actual fase de desarrollo de Internet, cuando la red pasa gradualmente de ser una herramienta para encontrar e identificar información, a otra para encontrar y relacionarse con otras personas. La cultura digital siempre ha tenido un aspecto social, pero ha sido con la idea de las herramientas dedicadas a las relaciones sociales —y, por encima de todo, con el ascenso de Facebook— cuando se ha colocado en el corazón de un número creciente de vidas contemporáneas.

cronología1994 1995 2000 2002 2003 2004 2006Fundación de theGlobe.com Fundación de Classmates.com Fundación de Friends

ReunitedFundación de Friendster Fundación de MySpace Fundación de Facebook Fundación de Twitter

001-222 50 ideas digital.indd 108 22/02/2012 16:12:25

109 lasredessociales

sofisticadas y oportunidades para crear y com-partir contenidos; y redes más específicas, siendo el ejemplo más típico la estadouniden-se Classmates.com, introducida en 1995 para ayudar a la gente a recuperar el contacto con antiguos compañeros del colegio y la universi-dad. Inspirado por Classmates.com, en 2000 apareció el sitio británico Friends Reunited. Mientras, servicios como el Instant Messenger de AOL, aparecido en 1997, avanzaban poco a poco la idea de la mensajería instantánea y el uso de listas de con-tactos de amigos virtuales.

De destino a hub A finales del año 2000, millones de perso-nas contaban ya con perfiles en varios sitios de redes sociales, y tal vez los consultaban un par de veces a la semana o al mes para ver cómo habían cambiado sus redes. Las redes sociales eran un destino

«Los medios sociales tienen más que ver con la sociología y la psicología que con la tecnología.»briansolis

Una de las creaciones más importantes hechas últimamente en el ámbito de las redes sociales, y especialmente en Facebook, ha sido la creciente proliferación de aplicaciones desarrolladas por terceros para el uso dentro de estas redes. De estas aplicaciones, tanto las más populares como las más rentables son los juegos; incluso se ha acuñado el término «juego social» para describir la inmensa popularidad de jugar a juegos sencillos con amigos vía estas redes. En vez de ser un juego simultáneo, que conlleve mucho tiempo y nos tenga secuestrados —como la mayoría de videojuegos tradicionales tendían a hacer—, los juegos sociales

enfatizan la capacidad de los jugadores de hacer acciones frecuentes y limitadas en momentos distintos. Puede consistir en responder a cuestionarios, hacer un movimiento en un juego como el Scrabble o el ajedrez, o —el más popular de todos— hacer unas cuantas cosas en un entorno virtual como una granja, una ciudad o un restaurante, donde el juego no se centra tanto en ganar o perder, como en crear más y más recursos, y compartir y comparar estos con los proyectos de los amigos. Uno de los más infames y populares de estos, FarmVille, en su mejor momento llegó a tener más de 80 millones de jugadores.

El poder del juego

cronología1994 1995 2000 2002 2003 2004 2006Fundación de theGlobe.com Fundación de Classmates.com Fundación de Friends

ReunitedFundación de Friendster Fundación de MySpace Fundación de Facebook Fundación de Twitter

001-222 50 ideas digital.indd 109 22/02/2012 16:12:25

110 placeryocio

virtual, pero todavía no eran una parte dominante de la experiencia online.

Esto empezó a cambiar en 2002 con el lanzamiento de un nuevo estilo de red social llamado Friendster. Friendster estaba diseñado no sim-plemente para ayudar a las personas a recuperar el contacto con anti-guos compañeros de clase o con personas con intereses similares, sino también para funcionar como un destino virtual mucho más amplio en el cual los visitantes pudieran navegar por los perfiles a voluntad, entablar contactos fácilmente con amigos en la vida real y compartir medios y mensajes.

Friendster alcanzó más de un mi-llón de usuarios en un año, pero quedó superado pronto por el lan-zamiento en 2003 de MySpace, un sitio de aspecto similar. My Space imitaba los rasgos de Friendster pero fue mucho más allá para ob-tener nuevos usuarios, y en 2006 ya celebraba su cuenta número 100 millones. Se convirtió en el sitio líder no solo para comuni-carse con los amigos, sino para explorar la cultura pop, descubrir grupos de música nuevos, com-partir música y vídeos, y en gene-ral relacionarse con la web a tra-vés del más perspicaz de todos los buscadores: otras personas de gus-tos similares.

Facebook Mientras MySpace celebraba su triunfo —y su com-pra en 2005 por parte de News Corporation por 580 millones de dólares—, un rival, fundado en 2004 como un medio para que los estudiantes de universidad estu-vieran en contacto, ya empezaba a superarle: Facebook.

Fundado por el estudiante de Har-vard Mark Zuckerberg y lanzado

inicialmente como thefacebook.com en enero de 2004, Facebook se abrió durante su primer año de plataforma solo para estudiantes de Har-vard y otras universidades estadounidenses, luego incorporó los institu-

Aunque casi todo el tiempo dedicado a las redes sociales es tiempo de ocio, el fenómeno ha tenido también un profundo efecto en el mundo profesional. LinkedIn, el sitio de red social profesional más conocido en el mundo, nació en 2003 y en enero de 2011 conectaba a más de 90 millones de perfiles por todo el mundo. La creciente universalidad de sitios como LinkedIn —que incluye plataformas para historiales profesionales completos, CV online, detalles personales y, lo más importante, la posibilidad de conectar, encontrar, ponerse en contacto y recomendar a otras personas en campos relacionados— hoy está cambiando rápidamente los procesos de contratación de muchas empresas y las actitudes hacia la búsqueda de empleo. La autopresentación virtual se está convirtiendo en una capacidad esencial en muchos campos, como también lo es asegurarse de que los detalles potencialmente poco favorecedores de tu vida no sean accesibles a la mirada de cualquier posible jefe que consulte rápidamente tu perfil en otras redes sociales.

Las redes sociales profesionales

001-222 50 ideas digital.indd 110 22/02/2012 16:12:25

111 lasredessociales

tos y, finalmente, en 2006, a cualquier persona mayor de trece años. Facebook alcanzó su usuario 100 millones en 2008, alcanzó 200 y 300 millones en 2009, y quinientos millones a mediados de 2010. En enero de 2011 ya tenía 600 millones, y sigue cre-ciendo.

Otro hito ocurrió a finales de 2010, cuan-do Facebook superó a Google por prime-ra vez como la página web más visitada de Estados Unidos. ¿Qué explica el enor-me éxito de Facebook? Hay un motivo que es sin duda un autorrefuerzo: para los nuevos usuarios está claro que tiene más sentido incorporarse a la mayor red social del mundo que a cualquier otra. Pero, aparte de eso, Facebook ha demostrado una agresiva vo-luntad de incorporar a la estructura de la red social casi todo aquello que forma parte del tejido de las relaciones virtuales: un sistema inter-no de e-mail y chat, la compartición de imágenes, invitaciones, even-tos, grupos, sociedades y peticiones; páginas de fans y páginas de perfil detalladas; y, quizá por encima de todo esto, juegos y aplicaciones, y la oportunidad de conectarlo todo con un montón de otras páginas y actividades virtuales.

Twitter y los sitios interconectados El otro único servicio social que ha tenido un impacto similar al de Facebook en los últimos años es la página de microblogging Twitter. Aparecida en 2006, permite a los miembros seguir los tuits mutuos de un máximo de 140 caracteres, y a principios de 2011 ya tenía más de 200 millones de cuentas de usuarios. Esta transición hacia la experiencia de Internet como un to-rrente en tiempo real de información, hecha de actualizaciones y enla-ces, es tal vez la mayor transformación de todas las que han aportado las redes sociales... puesto que marca la aparición de un nuevo estado digital por defecto para mucha gente, donde el mundo virtual no se enfoca como un recurso ilimitado que espera a ser explorado, sino como una red de amigos y contactos que se comunica en tiempo real, a base de mensajes y actualizaciones. Esta web social —a la que, gracias a los smartphones y a los dispositivos móviles, mucha gente es capaz de pasar la mayor parte de su tiempo conectado— representa uno de los cambios más profundos en la historia de la tecnología digital.

La idea en síntesis:la web social es el 

futuro digital

«Ser el primero ya está pasado, mientras que ir al grano es lo que se lleva. Y Twitter no olvida nunca.»mercedesbunz

001-222 50 ideas digital.indd 111 22/02/2012 16:12:25

112 placeryocio

El mundo de las consolas de juego empezó en 1972, con la aparición de la Magnavox Odyssey. Su inventor, Ralph H. Baer, tuvo la enton-ces revolucionaria idea de que aquel sencillo aparato se pudiera co-nectar directamente al televisor para producir una imagen, en vez de necesitar su propio y caro monitor. La máquina decía contener una serie de juegos sencillos pero tuvo un escaso marketing y no logró causar demasiado impacto, en comparación con un producto también aparecido en 1972: el nuevo juego de la compañía estadounidense Atari, Pong, que se convirtió en el primer videojuego comercializado con éxito en el mundo. Se jugaba en público en las salas de juegos, más que en casa, pero se había inspirado en un juego parecido de ping-pong de la Magnavox. Atari y Magnavox llegarían más tarde a un acuerdo extrajudicial por el hecho de que el juego de Atari se ha-bía basado en el de Magnavox. Sin embargo, fue Pong quien lanzaría realmente el mercado de los juegos caseros cuando en 1975 ambas empresas sacaron consolas caseras dedicadas a jugar al Pong.

Atari adquirió pronto una posición de dominio del mercado de las consolas, y en 1977 sacó la consola Atari 2600 (conocida entonces como Atari VCS), que puso de moda la mecánica de comprar juegos

27  Consolas de juegos

El juego ha tendido siempre a ser una de las fuerzas más importantes de las que impulsan la tecnología digital. En 1972, muchos usuarios domésticos tuvieron su primera experiencia de la informática como algo que se podía disfrutar en casa, además de en el trabajo o en las instituciones académicas, gracias a la aparición de la primera consola de juegos: un aparato casero dedicado totalmente a los videojuegos. Hoy, el mercado de las consolas está valorado en decenas de miles de millones de dólares, con cientos de millones de aparatos en todo el mundo.

cronología1972 1977 1983 1994 2001 2006Aparición de la primera consola de juegos, Magnavox Odyssey

Lanzamiento del Atari VCS (más tarde 2600)

Aparición del Nintendo Entertainment System

Lanzamiento de la Sony PlayStation

Microsoft entra en el mercado con la Xbox

Lanzamiento de la Nintendo Wii

001-222 50 ideas digital.indd 112 22/02/2012 16:12:25

113 consolasdejuegos

como cartuchos que sencillamente se insertaban en un aparato para jugar, con la ventaja sustancial de la facilidad de uso de las consolas en una era en la que los ordenadores domésticos todavía resultaban un poco complicados de usar para los no iniciados.

Apoyándose en la creciente locura por los juegos de sala, el siguiente hito en el mercado de las consolas llegó en 1980, cuando Atari sacó una versión del nue-vo éxito de las salas de juegos Space Invaders para sistemas caseros. El futuro parecía asegurado, pero en 1983, una combinación de sobresaturación del mercado y de falta de calidad provocó un hundi-miento en el mercado estadounidense de los juegos y una retahíla de bancarrotas.

La llegada de Japón El crash de 1993 dejó un agujero en el mercado que la empresa japonesa Nintendo estaba perfectamente po-sicionada para explotar, con su lanzamiento del «Family Computer» o Famicom, como se dio a conocer en Japón. Rebautizado Nintendo

cronología1972 1977 1983 1994 2001 2006Aparición de la primera consola de juegos, Magnavox Odyssey

Lanzamiento del Atari VCS (más tarde 2600)

Aparición del Nintendo Entertainment System

Lanzamiento de la Sony PlayStation

Microsoft entra en el mercado con la Xbox

Lanzamiento de la Nintendo Wii

Para una empresa, crear y comercializar una consola de juegos es un negocio enormemente caro y arriesgado que requiere una enorme inversión en investigación y desarrollo, y jugársela con el claramente volátil y cíclico interés del consumidor. Es, por tanto, inevitable que la historia esté plagada de máquinas fracasadas y aparatos infraexplotados. La primera consola de todas, la Magnavox Odyssey, tuvo un rendimiento pobre, mientras que su rival, Atari, sería posteriormente vencida por Nintendo y Sega.

En 1993, Atari presentó una consola llamada Jaguar que se proponía arrebatar el dominio del mercado a sus rivales. En cambio, el funesto aparato demostró ser la última de las máquinas de juegos de tecnología punta. Panasonic corrió una suerte similar en 1993 con su intento de entrar en el mercado con un aparato llamado 3DO, mientras la propia Sega abandonó el negocio de la fabricación de consolas después de que su Dreamcast, de 1998, no lograra recuperar el terreno perdido frente a Nintendo y Sony.

Famosamente arriesgado

«El hombre es un animal jugador, y el ordenador es una manera más de jugar.»scottadams

001-222 50 ideas digital.indd 113 22/02/2012 16:12:25

114 placeryocio

Entertainment System para su comercialización global, esa cajita pla-na y gris abanderó una nueva revolución del ocio doméstico, gracias a su sólida combinación de calidad y usabilidad... y del juego que popu-larizaría el mayor icono mundial de los juegos, Super Mario Bros, un título que vendería más de 40 millones de copias.

El final de la década de 1980 y la década de 1990 pronto se convir-tieron en una época de intensa rivalidad entre dos empresas japone-sas, Nintendo y Sega, por el dominio del cada vez más lucrativo sector de las consolas de juegos, con la consola Sega Mega Drive compitien-do duramente con el Super Nintendo Entertainment System. Sin em-bargo, el equilibrio de poder volvió a decantarse a finales de 1994 con la entrada en escena de un nuevo rival: Sony. La PlayStation de Sony se convirtió en la primera consola que vendió más de 100 millones de unidades y ayudó a acercar los juegos a un nuevo público, más adulto, gracias a su sonoridad con calidad de CD, sus impresionantes gráficos y su elegante marketing.

Mientras, Nintendo se posicionó en primer lugar en otro mercado vi-tal: la consola manual, un campo que su Game Boy de 1990 había ayudado a definir, en parte gracias al éxito de su juego icónico Tetris. La presentación en 2004 del sistema Nintendo DS supuso una revolu-ción similar del mercado en una década nueva.

Nuevas revoluciones El mercado de las consolas ha seguido creciendo en ciclos regulares o a base de «generaciones» de aparatos, hasta el día de hoy. En 2001 entró en escena un nuevo actor: el gi-gante de la informática Microsoft, con su consola Xbox, y las ventas de los juegos domésticos siguieron aumentando, con unos gráficos y unos sonidos cada día más sofisticados.

Pero tal vez la innovación más importante procedente del mundo de las consolas de juegos llegó en 2006, con la séptima generación de con- sola de Nintendo, la Wii. Basada en un sistema de controles sensibles al movimiento, a principios de 2011 la Wii había vendido más de 75 millones de unidades y había ayudado a cambiar las percepciones pú-blicas tanto de los juegos como de la interacción con la tecnología digital en general, gracias a la accesibilidad sin precedentes de su mé-todo de control. Microsoft llevó debidamente este tipo de interacción

«Los juegos están creados por personas de gran inteligencia y creatividad,

y... los mejores de ellos son sofisticadas obras de arte por derecho propio.»

stevenpole

001-222 50 ideas digital.indd 114 22/02/2012 16:12:25

115 consolasdejuegos

un paso más allá con la introducción de su sistema Kinect en la últi-ma versión de la Xbox, en noviembre de 2010, un sistema de control del movimiento que no está basado en mover un controlador por el aire, sino en una cámara simplemente capaz de seguir los movimien-tos del cuerpo de las personas que tiene delante de ella.

Este es el tipo de territorio en el que las consolas en concreto, y los videojuegos en general, han liderado siempre el mundo digital: en lle-var hasta el público general avances revolucionarios en gráficos, soni-dos e interfaces, y en hacer que la tecnología resulte al mismo tiempo más accesible y más irresistiblemente atractiva. El futuro de las conso-las está cada vez más no simplemente en su concepción como apara-tos para jugar, sino como centros mediáticos caseros: televisión y cine en streaming, albergando comunidades de juego y ocio, almacenando medios digitales y ofreciendo nuevos tipos de experiencias interacti-vas. Pero todo esto está en sintonía con la más fundamental de las funciones: conectar con la necesidad básica del ser humano de jugar y ayudar a poner su marca firme en una era digital en la que los lími-tes entre trabajo y ocio son cada vez más difusos.

La idea en síntesis:el juego impulsa las 

revoluciones digitales

Los modernos juegos de consola son productos carísimos de hacer y potencialmente muy rentables. Con precios de venta al público de hasta 60 €, sus costes de producción rivalizan con los de las grandes películas, acercándose a los 100 millones de dólares en el caso del Grand Theft Auto IV (GTA 4) de 2008. Este juego presumió de haber ingresado quinientos millones de dólares en ventas en sus primeros cinco días de lanzamiento, convirtiéndolo en aquel momento en el

lanzamiento de ocio más rentable de cualquier producto de la historia: el récord lo batió al año siguiente el juego Modern Warfare 2, de Activision. Teniendo en cuenta los muchos cientos de personas que hacen falta para crear tales universos lúdicos desde cero, y la demanda de que estos mundos sean totalmente interactivos y contengan potencialmente cientos de horas de contenido, es comprensible que estén entre los productos digitales más complejos creados nunca.

Paraíso comercial

001-222 50 ideas digital.indd 115 22/02/2012 16:12:26

116 placeryocio

La idea de refundir materiales ya existentes para crear obras nuevas viene de antiguo. Pero «fundir» distintos elementos para hacer algo nuevo también engloba uno de los principios esenciales asociados a la cultura digital: que el contenido está para compartirse y reutilizarse, y que debe ser lo más compatible posible.

Es algo que podría entrar en conflicto de manera básica con muchas nociones legales establecidas del copyright y de la propiedad intelec-tual, pero que también ha ayudado a alimentar nuevas nociones de creatividad y originalidad. Y, como con tantas otras cosas, es una acti-vidad que esta facilidad de reproducción y manipulación digital ha puesto al alcance de casi todo aquel que dispone de un ordenador y de una conexión a Internet.

Medios combinados Las imágenes de cómic han sido mate-ria prima de Internet desde antes de la web, en los tiempos de los tablones de anuncios de la década de 1980. Pero no fue hasta la lle-gada de la aumentada banda ancha y de los números asociados al as-censo de la web cuando la cultura mashup se extendió totalmente a otros medios... y alcanzó su forma moderna más completa en la músi-ca y los vídeos.

28  MashupsUna de las características más esenciales de la cultura digital es la manipulación y recombinación de medios existentes —vídeo, imagen, sonidos, texto— para crear obras nuevas: mashups. A menudo cómicos o paródicos, estos productos culturales pop van desde las imágenes modificadas que son el resultado del trabajo de unos pocos minutos, hasta parodias de películas elaboradamente reeditadas, o tributos que pueden llevar días o hasta meses de esfuerzo. Al mismo tiempo, los principios que hay detrás de los mashups van mucho más allá de los medios y aparcan los datos, las aplicaciones y la capacidad de combinar los recursos existentes en algo nuevo.

cronología2000 2001 2005 2005Lanzamiento de la página machinimia.com 2manyDJs saca el primer álbum con

música mashupPrimera aparición de un lolcat en la red Google Maps lanza su capacidad de

integrarse en otras webs

001-222 50 ideas digital.indd 116 22/02/2012 16:12:26

117 mashups

La tradición musical de «samplear» y mezclar varias canciones es casi tan antigua como la propia tecnología de grabar música. Sin embargo, los mashups musicales creados con herramientas digitales permiten nuevos niveles de precisión y complejidad... y de distribución e imita-ción. Temas como Destiny’s Child v Nirvana, que apareció en 2001, muestran una técnica altamente intrincada de mezcla de música y ví-deo en su forma virtual. Además, demuestran la creciente invisibilidad de la línea entre los tributos de aficionados y el producto comercial, teniendo en cuenta especialmente la voluntad del mundo comercial de reexplotar los memes y mashups más populares.

La subversión combinada con el afecto es un tema común en muchos mashups, y algunos de los más impactantes se llaman remixes o remez-clas. Consisten en reeditar trailers de películas y añadirles nuevas bandas sonoras para dar la impresión de que ha habido un cambio de género: por ejemplo, Forrest Gump presentado como si fuera una pelí-cula de terror, o Dos tontos muy tontos como si fuera un thriller de ciencia ficción. En los eventos en directo es cada día más común ofre-cer una versión más elevada de arte escénica basada en mashups de vídeo y de sonido, normalmente dirigidos por un VJ (versión en vídeo del DJ).

cronología2000 2001 2005 2005Lanzamiento de la página machinimia.com 2manyDJs saca el primer álbum con

música mashupPrimera aparición de un lolcat en la red Google Maps lanza su capacidad de

integrarse en otras webs

Uno de los productos más famosos —o infames, dependiendo del criterio de cada uno— de los últimos cinco años de la cultura online es el lolcat: una foto de un gatito muy mono que ha sido retocada con el añadido de una leyenda, normalmente mal escrita («¿Me daz una hamburgueza?» es una de las más típicas). Vistos por primera vez en la página web de imágenes 4chan en 2005, los lolcats son un ejemplo más de las «macros de imágenes» virtuales —imágenes a las que se sobreimpone texto,

normalmente humorístico—. Como son casi la forma más sencilla de mashup, la facilidad de creación y de distribución de las macros de imágenes más populares ha creado multitud de memes de Internet y, en el caso de los lolcats, todo un vocabulario privado, el lol-speak, que ahora alardea, entre otras cosas, de haber hecho una traducción casi completa de la Biblia (muestra de Juan 1:1: «Al prinzipio eztaba el miau, y el miau dijo: Alabaraz al Gato del Techo. Y el miau ez el gato del Techo».

Lolcats y tablones de imágenes

001-222 50 ideas digital.indd 117 22/02/2012 16:12:26

118 placeryocio

Trabajo de fan Los medios interactivos y virtuales han creado grupos de fans cada vez más creativos en torno a mundos más imagina-tivamente exitosos, y la calidad y la cantidad de las producciones de los fans basadas en la adaptación de materiales originales se reconoce con el apelativo de fan labour o trabajo de fan. La frase en sí es un reco-nocimiento de los límites confusos que hay entre la creación del mate-rial original y la posterior reutilización de este material por parte de un público, y muchas empresas de medios e individuos creativos intentan cada vez más mantener un equilibrio productivo entre ambos.

Los mashups son solo un aspecto de este tema, pero presentan algunas de las cuestiones más apremiantes tanto para fans como para producto-res, puesto que implican el uso no solo de personajes e ideas de las obras creativas, sino la reutilización completa de imágenes, sonidos y otros elementos de contenido. Entre los enfoques más radicales está la posibilidad de poner deliberadamente «atractivos» creativos a la dispo-sición de los fans para que los puedan reutilizar: desde guiones hasta mo-delos gráficos, entornos, samples y bandas sonoras. Un ejemplo notable de ello fue la presentación de la banda inglesa Radiohead en 2008 de su single House of Cards, que incluía un vídeo promocional de su can-tante, Thom Yorke, basado totalmente en datos tridimensionales esca-neados en tiempo real mientras cantaba. Estos datos fueron ofrecidos abiertamente online, permitiendo a los fans construir sus propias visua-lizaciones de la canción basándose en los datos brutos y originales.

La moderna cultura de los mashups abarca medios interactivos y también lineales, y un área de interés especial es la práctica de usar caracteres dentro de videojuegos para crear actuaciones grabadas a menudo complejas. La práctica se conoce como machinima por una página web aparecida en 2002 cuyo nombre era la contracción de machine cinema. Los fans utilizan el sofisticado entorno gráfico de los juegos y su control sobre los personajes que contienen como una especie de teatro, graban actuaciones con guiones a menudo muy trabajados y luego los procesan como si fueran películas reales, con banda sonora, cortes, difuminados e

incluso tráilers virtuales. Tanto las obras originales como las satíricas y las recreaciones son muy populares; entre los proyectos más vistos de los últimos años está un episodio de 2006 de la serie televisiva South Park, «Make Love, not Warcraft», que incorporaba metraje «actuado» dentro del propio juego World of Warcraft. La popularidad de las producciones machinima ha llevado a los fabricantes de juegos a liberar las condiciones de licencia para permitir hacerlas, en especial con una «Carta a los Machinimators del Mundo», escrita por los operadores de World of Warcraft, autorizando casi todos los machinima no comerciales.

Machinima

001-222 50 ideas digital.indd 118 22/02/2012 16:12:26

119 mashups

Aplicaciones mashups Aunque los medios y el ocio pueden ser las formas más conocidas de mashup, el nombre también sirve para aplicaciones web que toman información o funciones de otras fuentes y las combinan para hacer algo nuevo. Recogiendo información de bases de datos y combinándola con otros datos y funciones, como las herramientas de cartografía y análisis, las aplicaciones mashups pue-den ofrecer algunas de las más potentes herramientas de la Web 2.0 que hay, y son cada vez más reconocidas como un recurso importante de todo, desde el e-Gobierno hasta la economía del desarrollo.

Un ejemplo típico puede ser la visualización de datos: en el Reino Unido, la publicación por parte del Gobierno de datos públicos, que van desde estadísticas criminales hasta la ubicación de los servicios locales, ha llevado a una profusión de productos mashups que presentan estos datos geográficamente, ofreciendo herramientas de visualiza-ción y de comparación, y que sirven para trazar un mapa de las tendencias sociales y económicas del país. El gobierno ha ani-mado activamente a este enfoque publi-cando datos en formatos aptos para su reutilización y recombinación, pensando en animar a las pequeñas compañías digi-tales a explorar las posibilidades de com-binar los diferentes conjuntos de datos y herramientas. Un enfoque similar en Estados Unidos ha producido aplicaciones potentes y populares basadas en datos oficiales de múlti-ples fuentes: desde un explorador del mercado del empleo que mues-tra las tendencias del desempleo por zonas, superpuesto en un mapa de Google, hasta una herramienta llamada data masher que permite a sus usuarios elegir entre una selección de grupos de datos y luego los muestra gráficamente y los analiza.

Como en los mashups artísticos, la idea de combinar distintos conjun-tos de datos y recursos no tiene nada de nuevo en la era digital: en el siglo xix, por ejemplo, los mapas de los brotes de una enfermedad tu-vieron una gran importancia para comprender por primera vez el pa-pel del agua contaminada en la propagación del cólera.

La idea en síntesis:los medios digitales 

significan una remezcla perpetua

«La gente tiene cosas que contar y utilizará cualquier medio para hacerlo.»FriedrichKirschner

001-222 50 ideas digital.indd 119 22/02/2012 16:12:26

120 placeryocio

La propia idea de culture jamming es anterior a la era digital, con orí-genes tanto en los antiguos rituales del carnaval y la subversión como, más recientemente, en movimientos artísticos del siglo xx como el situacionismo, que buscaba subrayar la absurdidad de muchas con-venciones cotidianas. Muchos movimientos contra el consumo, como Adbusters, fundado en 1989, han intentado bloquear o interferir (to jam) la cultura dominante mediante varias formas de sátira sobre la publicidad, las marcas y el consumo de masas.

La idoneidad de tales subversiones para la cultura digital ha llevado a una diversificación sin precedentes del fenómeno online, en par- te gracias a la coincidencia entre la facilidad de la producción digital y el hecho de que el culture jamming ni crea ni distribuye un produc-to comercial. En sus inicios, el propio Internet estaba fuera y a me-nudo opuesto a la cultura dominante, y este estado continúa hoy en presencia de muchos espacios virtuales, dentro de los cuales ningu- na forma de sátira u ofensa se considera lo bastante extrema, y mate-riales que podrían invitar a tomar acciones legales si se publicaran en otros medios se pueden airear con relativa tranquilidad y anonimato.

Tal vez los más infames de todos los sitios de Internet para la decons-trucción de la cultura dominante fueron una serie de galerías de imáge-nes cómicas y sitios de culto que albergaban contenidos como fotogra-fías manipuladas satíricamente, listas de chistes antisistema y reseñas

29  Culture jammingEl culture jamming es algo así como la cultura de la subversión, de la misma manera que uno puede intentar bloquear las ondas radiofónicas durante un conflicto: se propone desbaratar y subvertir los mensajes culturales hegemónicos, a menudo con fines satíricos o políticos. Teniendo en cuenta la facilidad con que los medios digitales pueden ser manipulados, el culture jamming describe de manera general amplias franjas de actividad virtual y un paisaje «alternativo» que se ha convertido en lo bastante asentado por sí mismo como para merecer un poco más de sátira y subversión.

cronología1957 1989 2003 2010Fundación del grupo Situationist International Fundación de la revista

AdbustersFuror de la controversia Santorum

El Jamming se convierte en parte integral de unas elecciones generales británicas.

001-222 50 ideas digital.indd 120 22/02/2012 16:12:26

121 culturejamming

satíricas. Una de estas páginas, Something Awful, fue fundada en 1999 y desde entonces ha arrastrado una notable panda de seguidores anárquicos —que a veces se identifican ellos mis-mos como goons («gansos»)— a sus foros.

Además de la demolición sa-tírica de muchos objetivos de masas en los propios foros, los goons son conocidos por orga-nizar grupos de jugadores den-tro de juegos virtuales popu-lares, y mundos virtuales con la intención expresa de destrozar la experiencia de juego a los jugadores convencionales: una forma de contracultura virtual que también sirve de recono-cimiento de que buena parte de la cultura digital hoy se ha convertido en lo bastante do-minante como para merecer ser bloqueada por derecho propio.

Culture jamming político La pura velocidad con la que las co-munidades virtuales son capaces de crear y esparcir respuestas a los acontecimientos hace que la culture jamming sea especialmente ade-cuada para dar la vuelta a campos como la política: una tendencia que se hizo totalmente obvia durante las elecciones generales britá-nicas de 2010. A las pocas horas de su aparición, una serie de carteles del Partido Conservador que utilizaba la frase «Nunca había votado Tory antes, pero...» empezaron a ser mandados y colgados online y enlazados a miles, pero acabando la frase con «... porque tengo siete años y me gustan los Power Rangers», «... pero creo en el alarmismo social».

La actividad hizo surgir rápidamente una página web, un grupo de Facebook y un trending topic en Twitter, además de una controversia

Para aquellos que se toman en serio eso de bloquear las señales culturales indeseadas de su vida, en Internet hay una gran variedad de instrucciones en «hardware de código abierto» para crear dispositivos que ayudan a hacerlo. Estos van desde mandos a distancia que sirven para apagar cualquier aparato de televisión no deseado en un espacio público, hasta aparatos para bloquear con las señales de los teléfonos móviles, y también con elementos más sencillos, como etiquetas de ropa falsas de diseñadores conocidos. La esencia de estos dispositivos se puede resumir en «tomar el control de la información que te rodea» y está asociado a la cultura creadora y al arte de los mashups; todos ellos invitan a los individuos a no consumir cultura contemporánea de manera pasiva, sino a probarla y jugar con ella, y a reservarse el derecho a rechazar elementos de la misma sin complejos.

Hardware jamming

cronología1957 1989 2003 2010Fundación del grupo Situationist International Fundación de la revista

AdbustersFuror de la controversia Santorum

El Jamming se convierte en parte integral de unas elecciones generales británicas.

001-222 50 ideas digital.indd 121 22/02/2012 16:12:26

122 placeryocio

dentro de la corriente principal de la propia campaña electoral, cuan-do los diputados del Partido Laboralista enlazaron y comentaron las bromas de la campaña de carteles.

Bloquear el Messenger El potencial que supone la extendida subversión de cualquier mensaje es tanto una fuente de goce para mu-chas personas como un factor importante en buena parte de la publi-cidad y el debate público modernos. Por otro lado, en el debate vir-tual hay mucho de efímero, de casi invisible entre la inmensa cantidad de información disponible, o de interés para grupos concretos ya con-vencidos de una postura. Por otro lado, la importancia creciente de algunos sitios web como fuerza principal de referencia significa que la capacidad de las comunidades virtuales para «bloquear» un mensaje y sustituirlo por otro puede acabar siendo importante.

Un ejemplo de ello es la «controversia Santorum», que surgió en 2003 cuando el antiguo senador republicano estadounidense Rick Santo-rum comentó, durante el transcurso de una entrevista, que no creía que la Constitución garantizara la privacidad a los adultos cuando mante-nían relaciones sexuales consentidas; es decir, que el estado tenía de-recho a regular los actos homosexuales de la misma manera que regula contra actos como el incesto o el abuso de menores.

Los comentarios de Santorum levantaron críticas considerables, pero tal vez el efecto más perdurable de la reacción contraria a ellos fue la convocatoria de un concurso por el columnista Dan Savage para crear un significado alternativo para el peculiar apellido «Santorum» e in-tentar introducirlo en el uso común. La campaña, que dotó a la palabra con una desagradable definición sexual, fue un éxito tal que actualmen-

Para algunos críticos del concepto culture jamming, la idea de que se puede establecer una distinción clara entre lo alternativo y lo dominante resulta en sí misma sospechosa. Tanto los productos dominantes y de marca como los productos independientes y «de código abierto», afirman, atraen a la gente a través del mismo mecanismo fundamental: se les está vendiendo una imagen y una idea concretas,

que en el caso de los productos antimasas es simplemente una imagen antisistema. Tales críticos tratan las formas más extremas de culture jamming como algo sin sentido, en cuanto a que «ir contra el sistema» no es una postura que conduzca a un cambio significativo ni a una mejora del mundo... y que hay formas más efectivas de activismo para aquellos que sí desean cambiar el mundo.

Lo alternativo frente a lo dominante

001-222 50 ideas digital.indd 122 22/02/2012 16:12:26

123 culturejamming

te, cuando ponemos en cualquier buscador el nombre santorum, la obte-nemos entre los primeros resultados.

Bombardeo Google Las campañas exitosas para «atacar» una palabra o un mensaje concretos intentan a menudo explotar una téc-nica conocida como el bombardeo Google: el intento de aprovechar la operación de los algoritmos de los buscadores estableciendo grandes números de conexiones con una página concreta desde otras páginas, todas conectando desde la misma frase. El buscador de Google es hoy extremamente resistente a tales esfuerzos, pero quedan algunos resul-tados notables, incluyendo el primer resultado de la búsqueda «French military victories» («victorias militares francesas»), que llevaba a un resultado de Google en broma que preguntaba: «Quiso decir: “French military defeats”?» («derrotas militares francesas»).

Con estas técnicas se pueden obtener resultados tanto serios como en broma. «Googlewashing», por ejemplo, describe una especie de cultu-re jamming inverso, en el que un interés dominante o corporativo in-tenta cambiar agresivamente los primeros resultados que aparecen cuando se busca un término, o para asegurar que el tráfico se desvía de los rivales y va hacia él. Las batallas virtuales por las percepciones pueden ir y venir entre distintas cuentas, como muchas de las «gue-rras de edición» dentro de sitios de referencia como Wikipedia atesti-gua... donde introducir mensajes poco favorables está hoy lejos de ser un arte de aficionados.

La idea en síntesis:usar herramientas 

digitales para desmantelar ideas

«Toda mi forma de ver las cosas es que en Internet hay cosas terribles: ¿puedo escribir sobre ellas y transformarlas en

algo de tono humorístico?»richKyanka

001-222 50 ideas digital.indd 123 22/02/2012 16:12:26

124 negocioygobierno

La seguridad es el primero y más importante factor de la existencia del comercio virtual. La World Wide Web se abrió para su uso comercial en 1991, al año siguiente de su nacimiento, pero no fue hasta 1995 cuando se dio el más importante paso para ayudar al despegue de las ventas online: el lanzamiento público de un protocolo llamado Secu-re Sockets Layer (SSL) que se podía utilizar para codificar el tráfico entrante y saliente de una página web.

Antes, la información viajaba por la web en lo que era esencialmente una forma abierta, potencialmente legible por cualquiera que la inter-ceptara. El SSL significó que ya se podía crear un sitio web con una «capa» segura sobre su tráfico, codificando toda la información que llegara y saliera del servidor de modo que, aunque fuera interceptada, no fuera posible saber los detalles que se estaban mandando. El SSL ha seguido mejorando desde su aparición; en especial, 1999 vio la apari-ción de una mejora llamada Transport Layer Security (TLS), que ofre-cía protección adicional sobre la última versión de SSL, y ambos pro-tocolos se han seguido desarrollando desde entonces.

30  E-comercioLas transacciones comerciales son uno de los usos más esenciales de Internet y puede parecer como uno de los más simples. Los servicios se compran y se venden siguiendo una mecánica similar a la de las transacciones físicas. Y con los bienes al por menor, de manera muy parecida a lo que se hace en muchas tiendas o por catálogo, se seleccionan los productos, se pagan y luego se acuerda la entrega... ya sea por correo, en el caso de bienes físicos, o vía descarga. Pero detrás de todo esto hay una red administrativa y logística de una complejidad inmensa, en especial cuando se trata de procesar transacciones financieras, garantizar la seguridad de los datos y enfrentarse a la proliferación de fuerzas del fraude y la estafa.

cronología1992 1995 1999 2002 2010Fundación de Book Stacks Unlimited Lanzamiento online de Amazon y eBay Introducción de Transport

Layer Security (TLS)eBay adquiere PayPal Amazon alcanza unos ingresos

de 25 mil millones de dólares

001-222 50 ideas digital.indd 124 22/02/2012 16:12:26

125 e-comercio

Amazon y eBay Aunque no fueron realmente los primeros sitios de compra virtual, dos gigantes modernos, Amazon y eBay, fueron los primeros en causar un impacto profundo y de empezar a acostumbrar al mundo a la idea de que las cosas pueden comprarse, además de ver-se online. Entre ellos, estos sitios web también representaban el tipo básico de negocio que Internet ofrecería tan bien: vender una gama más amplia de bienes nuevos de la que puede caber en cualquier tien-da física, y ofrecer un mayor mercado consolidado para las subastas de artículos de segunda mano y para la reventa que cualquier otra ubica-ción física. El éxito apabullante de estas dos empresas es también un indicador revelador del dominio del e-comercio («comercio electró-nico») por las grandes marcas.

Amazon fue fundado en 1994 y lanzado por la red en 1995, inicial-mente como una librería. No era la primera que operaba en Internet (había sido la compañía Book Stacks Limited, fundada en 1992), pero gradualmente fue ampliando sus productos y servicios. A dife-rencia de muchas otras compañías «puntocom» de los primeros tiem-pos, Amazon planeó desde el principio no buscar la rentabilidad du-

En 2010, Amazon rozó los 25 mil millones de dólares en ingresos, mientras que eBay rondaba los 9 mil millones. Pero esto es solo una fracción del dinero que se gasta hoy día en el comercio minorista virtual. El mayor mercado mundial, el estadounidense, movió en 2010 unos 170.000 millones de dólares en ventas —un 7 por 100 de su mercado minorista total—, mientras que el mercado global se prevé que supere la cifra del billón de dólares en 2014. La importancia del crecimiento del e-comercio resulta difícil de predecir, pero hay dos tendencias relacionadas que sugieren que los negocios tradicionales ubicados en la zona media entre las firmas enormes y las tipo boutique podrían encontrar la transición muy difícil de hacer: los negocios muy grandes se benefician más de las mejoradas economías de escala y tienen acceso al enorme público que ofrece Internet, mientras que los negocios muy especializados y las boutiques es mucho más probable que encuentren su público particular. Para aquellos que se encuentran a medio camino, el futuro virtual podría ser cada vez más inhóspito.

¿Cuánto... y quién se beneficia?

cronología1992 1995 1999 2002 2010Fundación de Book Stacks Unlimited Lanzamiento online de Amazon y eBay Introducción de Transport

Layer Security (TLS)eBay adquiere PayPal Amazon alcanza unos ingresos

de 25 mil millones de dólares

001-222 50 ideas digital.indd 125 22/02/2012 16:12:26

126 negocioygobierno

rante unos cuantos años... y no obtuvo su primer rendimiento anual hasta 2001, un índice de la naturaleza extremamente lenta de la ven-ta virtual al detalle en comparación con otros negocios digitales.

eBay se lanzó al mundo virtual el mismo año que Amazon, 1995, con el nombre AuctionWeb, y en 1998 tenía medio millón de usuarios. Aquel año salió a bolsa y siguió creciendo rápidamente, y alcanzó unos ingresos de más de siete mil millones de dólares en 2008. Sin embargo, su adquisición más importante llegó en 2002, cuando se convirtió en único propietario del negocio de e-comercio PayPal —una empresa que permite a las personas efectuar y recibir pagos y transferencias de dinero por la red, a través de una cuenta con el propio PayPal, en vez de con una cuenta bancaria o una tarjeta de crédito.

Sistemas de pago Servicios como PayPal han demostrado ser una parte esencial de la creciente economía virtual, puesto que facili-tan muchísimo la compra de productos y servicios en la red, tanto para los clientes como para las empresas (para muchos negocios virtuales, procesar las transacciones con tarjeta de crédito a través de sistemas seguros por todo un espectro de distintos sistemas bancarios naciona-les es uno de los aspectos más caros y que implica más recursos de su negocio). Las cuentas PayPal también permiten a pequeños negocios y particulares efectuar y recibir pagos de manera segura, cuando a menu-do no serían aceptados para establecer un sistema de pagos a través de un servicio de banca convencional. El servicio funciona hoy día en

Como todo lo demás en la red, la siguiente etapa del e-comercio es estar influenciado por las redes sociales. Multinacionales líderes como Procter & Gamble han empezado a experimentar con la venta de marcas directamente por Facebook... con la plataforma de ventas impulsada por Amazon. Y la cultura virtual de las recomendaciones e informes individuales, que Amazon y otros tantos hicieron para alimentar de entrada, está adquiriendo un nuevo nivel de complejidad gracias a la sofisticación del sistema de recomendaciones en las plataformas sociales.

Los sistemas de recomendación automatizados efectivos hace años que son una prioridad para los minoristas online ansiosos de entender, predecir y aprovechar el comportamiento de sus usuarios. Pero cada vez se pone más el énfasis en «fichar» a los propios usuarios como embajadores informales y consultores de las marcas: algo con lo que no todos los consumidores, ni todos los negocios, se sienten del todo cómodos.

Hacer vida social

001-222 50 ideas digital.indd 126 22/02/2012 16:12:26

127 e-comercio

más de 190 mercados, y también a través de un sistema de mensajes de texto por teléfono móvil, y ha ayudado a definir el modelo para muchos otros sistemas de pago y de moneda... además de haber hecho un buen avance a la hora de ser aceptado junto a los pagos con tarjeta de crédito como una forma de pagar productos y servicios muy habi-tual.

Minoristas principales Paralelamente a estos florecientes ne-gocios basados en Internet, casi todos los minoristas principales del mundo tienen actualmente una considerable presencia virtual, con una sofisticación creciente de los productos y los servicios disponi-bles. Los supermercados han desarrollado mucho sus compras virtua-les y entregas a domicilio, mientras que muchas tiendas físicas —en especial las que venden medios, como libros, CD y DVD— han visto menguar sus negocios o se han visto abocados a adaptarse a una expe-riencia más «de destino» para diferenciar la compra física de la com-pra virtual. Y acompañando todo esto ha habido también un aumento gradual de la sofisticación de los servicios de entrega y logística: algo ejemplificado por Amazon, cuyos centros de distribución situados es-tratégicamente pueden ser más grandes que diez campos de fútbol.

La idea en síntesis:la web es el mayor 

escaparate del mundo

«No existe un equivalente físico a aquello en lo que Amazon.com se está

convirtiendo.»Jeffbezos

001-222 50 ideas digital.indd 127 22/02/2012 16:12:26

128 negocioygobierno

Los primeros anuncios en la red empezaron a aparecer a mediados de la década de 1990 y, como era bastante previsible, estaban basados en los modelos impresos existentes: en la parte superior de las páginas podían aparecer banners, o towers en los laterales. Clicar en estos anuncios lleva-ba a la gente directamente a la página web de una empresa, lo que mar-caba al mismo tiempo una relación nueva inmediata entre un anuncio y una empresa, y una manera mucho más precisa y rápida de medir la efec-tividad de un anuncio de lo que nunca antes había sido posible.

Hacia finales de esa década, los anuncios animados e interactivos eran cada vez más habituales en las páginas web y, con los inversores corriendo a invertir su dinero en las empresas online, el mercado em-pezó a despegar a un ritmo exponencial... al menos hasta que explotó la burbuja de las «puntocom» a finales de 2000. En esos momentos empezaba a quedar claro que los negocios y la publicidad virtual no estaban dando todo lo que se había esperado: la eficacia de la publici-dad en webs tendía a ser escasa, y, por tanto, la predisposición de las empresas a pagar por ella se redujo.

Servicios La publicidad en todos los formatos y medios siempre ha tenido sus proveedores especializados... y la publicidad virtual ha de-

31  La publicidad en la red

A medida que los productos digitales consumen cada vez más tiempo y atención humanos, la publicidad virtual se está convirtiendo en una parte cada vez mayor de muchos negocios, y está cambiando gradualmente los mecanismos de la propia publicidad. Como otras herramientas digitales, los costes de entrada de la publicidad virtual son mucho menores que los costes en medios tradicionales, y los datos disponibles son potencialmente mucho más precisos. Pero el nuevo territorio viene asociado a nuevos peligros, y también a un grado de influencia nuevo y sin precedentes ejercido por las mayores compañías de este campo.

cronología1994 1996 1998 2000 2006 2008Aparecen los primeros anuncios en la red

Llegan las primeras empresas de servicios publicitarios

Se muestra por primera vez la publicidad de «pago por clic»

Google inicia la publicidad por palabras clave

Facebook anuncia un acuerdo de publicidad con Microsoft

Google adquiere DoubleClick

001-222 50 ideas digital.indd 128 22/02/2012 16:12:27

129 lapublicidadenlared

mostrado no ser ninguna excepción. Casi desde el principio, las em-presas especializadas en «servicios de publicidad» encontraron un mercado virtual bien dispuesto de gente deseosa de beneficiarse de mos-trar publicidad en sus webs, pero que era incapaz o no quería pedirla personalmente.

La primera empresa dedicada a los servicios publicitarios por Internet apareció en 1996. Poco después se lanzó la práctica del «servicio remo-to», que permitía a una empresa especializada gestionar la publicidad en la página de cualquier cliente que instalara su código. La aparición de anuncios adecuados se seleccionaba, se cargaba, se actualizaba y se gestio-naba desde una compañía de servicios; se controlaban las estadísticas del rendimiento, y normalmente también estaba disponible un targeting espe-cializado basado en el contenido y en el comportamiento de los usuarios.

El poder de los datos El mundo virtual ofrecía algo que la pu-blicidad no había tenido nunca antes: estadísticas precisas y en tiem-po real sobre la efectividad de los anuncios. La publicidad virtual de los primeros tiempos tendía a funcionar sobre la base de cuántas veces se aparecía un anuncio a los distintos usuarios: el número de «visitas» que recibía una página en la que aparecía el mismo. La facturación según esta medida se conocía como enfoque «coste por impresión». Sin embargo, en 2000 Google introdujo un sistema llamado Ad-Words que permitía a los clientes adquirir pequeños anuncios de solo texto que aparecían junto a resultados concretos de búsqueda. La em-

cronología1994 1996 1998 2000 2006 2008Aparecen los primeros anuncios en la red

Llegan las primeras empresas de servicios publicitarios

Se muestra por primera vez la publicidad de «pago por clic»

Google inicia la publicidad por palabras clave

Facebook anuncia un acuerdo de publicidad con Microsoft

Google adquiere DoubleClick

La publicidad virtual es terreno abonado para el engaño, destinado tanto a los consumidores como a los propios anunciantes. Tal vez la manera más habitual de engañar a los anunciantes es el fraude del clic, que aprovecha la popularidad de la publicidad de pago por clic para generar una gran cantidad de clics en un anuncio concreto, lo que potencialmente costará a su operador

mucho dinero. Se trata de un delito criminal en muchas partes del mundo, pero puede resultar difícil de detectar y de demostrar. Las técnicas van desde el fraude humano en pequeña escala —alguien que sencillamente clica personalmente en los enlaces, o que paga a otros para que lo hagan— hasta el fraude automatizado a mayor escala, mediante programas que imitan ser usuarios.

Cuidado con el fraude del clic

001-222 50 ideas digital.indd 129 22/02/2012 16:12:27

130 negocioygobierno

presa había iniciado un modelo de negocio que pronto se convertiría en su principal fuente de ingresos. Al principio, los clientes pagaban a Google en base al sistema «coste por impresión», pero en 2002 la em-presa pasó a un nuevo sistema que había sido implementado por pri-mera vez en 1998 por la nueva iniciativa GoTo.com, conocido como «pago por clic», y significaba que los anunciantes solo habían de pa-gar cuando el usuario clicaba físicamente sobre su anuncio.

Con esto, Google no solo se convertía en su propio servidor, sino que además había dado con un potente modelo nuevo para usar una com-binación de datos y la enorme penetración de su buscador para trans-formar el mercado publicitario virtual. Los ingresos por publicidad de Google en 2010 fueron de más de 28.000 millones de dólares, gracias en buena parte a AdWords, pero ayudado por un sistema externo de servicios de publicidad lanzado en 2003. Este sistema, llamado Ad-Sense, permite a cualquier propietario de una página web fichar y usar Google como su servidor publicitario. Google pone entonces publici-dad en su página, pagando ya sea por impresión o por clic. El dominio de Google de la publicidad en la web fue todavía más afianzado con la compra en 2008 del principal proveedor de publicidad, DoubleClick, una adquisición que dio a Google el control de casi el 70 por 100 del negocio mundial de servicios publicitarios por la red.

Social, móvil y más allá Con la cultura digital transformada por el Internet móvil, las redes sociales y una gama cada vez más di-

Hoy día, a menudo, la mejor publicidad para una empresa tiene poco que ver con la publicidad tradicional y mucho con las redes sociales y el enrolamiento efectivo de clientes como defensores, aunque muchos de ellos puedan no ser conscientes del servicio que están publicitando. El éxito virtual megawoosh, por ejemplo, apareció en 2009 pretendiendo mostrar un ensayo del «mayor tobogán acuático del mundo». El clip mostraba un tobogán alpino que aparecía lanzando a un hombre en traje de neopreno a unos treinta metros por el aire hasta una pequeña piscina acolchada,

e incluía un enlace a una página web del supuesto constructor del tobogán, Bruno Kammerl. Visto con mayor atención mostraba que todo el montaje era un anuncio viral del programa de Microsoft Project Professional, y el propio clip era una cuidadosa farsa hecha con cuerdas, retoques y actores especializados. Hasta hoy, el clip ha tenido más de cinco millones de visitas en YouTube, ha generado kilómetros de comentarios, ha sido visto y discutido en todo el mundo y hasta salió en un episodio de la serie de TV Mythbusters (Cazadores de mitos) en mayo de 2010. Pocos publicistas podrían aspirar a tanto.

¿Cuándo estamos ante un anuncio que no es un anuncio?

001-222 50 ideas digital.indd 130 22/02/2012 16:12:27

131 lapublicidadenlared

versa de servicios y actividades virtua-les, la publicidad está avanzando rápi-damente más allá de los modelos co- nocidos de banners y palabras clave. En concreto, la cantidad creciente de me-dios en streaming ha impulsado un enfo-que más tradicional —incluyendo pu- blicidad en vídeo y audio, de manera muy parecida a la televisión y la radio—. La mayoría de usuarios de la web están dis-puestos a tolerar medio minuto de publi-cidad a cambio de audio o vídeo gratui-tos por streaming. El servicio de música en streaming Spotify, por ejemplo, ofrece canciones gratis a los usua-rios dispuestos a escuchar de vez en cuando anuncios de 15 a 30 se-gundos. Un enfoque similar se aplica cada vez más a los medios inte-ractivos, como los videojuegos, que tienen un público muy atento y que se expande a pasos agigantados: los anuncios pueden insertarse en secuencias de carga o hasta dentro de los propios juegos, con el cada vez más popular modelo de juegos gratis financiados por la publicidad.

Los medios sociales son también un foco creciente de atención virtual y un campo de innovación en el patrocinio y la publicidad. Twitter, por ejemplo, permite a los anunciantes pagar para que un trending to-pic aparezca encabezando las listas del sitio o promocionar una cuenta corporativa o tuits individuales para llamar la atención.

Facebook, mientras, se está convirtiendo rápidamente en uno de los primeros sitios mundiales para colocar publicidad, ofreciendo un targe-ting enormemente potente a tipos de clientes específicos... y basando su publicidad de servidor exclusivamente en el sistema de Microsoft ad-Center, en vez de en Google. La publicidad digital, que es ya el merca-do publicitario de mayor crecimiento mundial, parece estar aquí para seguir extendiéndose y evolucionando muchos años, impulsada por en-cima de todo por las tendencias sociales, móviles y orientadas al juego.

La idea en síntesis:a medida que la

atención se centra enla web, la publicidad

también lo hace

«Primero pensábamos que el PC era una calculadora... Luego descubrimos los gráficos, y pensamos que era una tele. Con la World Wide Web, nos hemos dado cuenta de que es un folleto.»douglasadams

001-222 50 ideas digital.indd 131 22/02/2012 16:12:27

132 negocioygobierno

Las unidades más importantes en analítica tienen que ver con tres cosas: cuánta gente visita una página concreta, o sitio, o servicio; cuánto tiempo pasan en ella, y cuáles son sus rutas de llegada y de sa-lida. Relacionada con esta medida, y de importancia creciente, es la segunda de ellas; cuánto ruido rodea a algo... y en especial cuánto se comenta y se reproduce en los medios sociales.

El número de usuarios es la más básica y la más antigua de estas medi-das. Originariamente, alguien que operara un sitio web podría senci-llamente haber contado el número total de veces al que se había acce-dido al sitio o página, consultando esta cifra en el servidor. Esta medida —el número total de veces que se ha visto una página, o sus «visitas»— puede seguir siendo útil, pero en general ha sido superada por el proceso más avanzado de contar el número de personas distin-tas usando algo. Esto se determina mirando las direcciones IP únicas de los usuarios, lo que hace posible determinar una cifra del número de usuarios únicos por día, semana, mes y hasta año: una vez que el sitio ha sido visitado desde una dirección IP concreta, esta dirección ya no se vuelve a contar durante el período estudiado.

32  AnalíticaLa cultura digital gira en torno a una explosión de información —no solo el acceso a diferentes fuentes de información sobre el mundo, sino también información sobre el comportamiento digital de las personas—. Desde las páginas web que visitas hasta las compras virtuales que haces, y desde los videojuegos a los que juegas hasta el tiempo exacto que dedicas a hacerlo, casi todo lo que se hace a través de dispositivos digitales es mensurable. Eso ha llevado al desarrollo de una amplia e influyente industria basada en el análisis de estos datos. La analítica de tráfico —el análisis de la naturaleza exacta del tráfico en la red hacia sitios web, y hacia páginas web concretas dentro de estos sitios— es el alma de este proceso, pero en absoluto lo único que encierra.

cronología1993 1994 1997 2005Lanzamiento de la compañía de análisis de la red Webtrends

Aparición de la primera herramienta comercial de análisis de la red

Inicio del análisis por terceras partes Lanzamiento de Google Analytics

001-222 50 ideas digital.indd 132 22/02/2012 16:12:27

133 analítica

Herramientas de control Hay una gran variedad de empresas que ofrecen herramientas para analizar el tráfico en la red, pero bási-camente hay dos maneras de registrar tales datos. El primero y más antiguo de estos métodos es el análisis de los archivos de entrada en el servidor que alberga un sitio web, algo que ha sido posible desde los inicios de Internet. El segundo método y más popular actualmente comporta adjuntar una pequeña cantidad de código de etiquetado a una página web, permitiendo que sea monitorizada por un sitio exter-no especializado: uno de los más populares de estos sitios es el servicio gratuito de análisis de Google, Google Analytics, que recoge informa-ción detallada sobre cómo se utiliza cualquier página o sitio web que haya elegido instalar su código de rastreo.

Además de las cifras de visitantes, el tiempo que pasa cada usuario utilizando algo es otro indicador clave, junto a otro factor relaciona-

cronología1993 1994 1997 2005Lanzamiento de la compañía de análisis de la red Webtrends

Aparición de la primera herramienta comercial de análisis de la red

Inicio del análisis por terceras partes Lanzamiento de Google Analytics

¿Qué nivel de tráfico tienen los mayores sitios web del mundo? La respuesta es siempre cambiante y creciente, pero, según la empresa de información de la web Alexa en el momento de redactar este libro, a principios de 2011, los primeros sitios del ranking mundial eran un trío que no sorprende en absoluto: en el número uno, la página de bienvenida de Google de EE.UU.; en el número dos, Facebook, y en el tres, YouTube (que es propiedad de Google). Otra empresa de información, Compete.com, situaba la cifra mensual de visitantes únicos a Google.com en unos 150 millones a finales de 2010, comparados con los 142

millones de Facebook y los 117 de YouTube. Fuera de estos servicios web, el primer servicio de blogging, el blogger de Google, está en el séptimo puesto mundial de sitios visitados según Alexa, con Wikipedia como fuente de información más popular en el octavo puesto; Amazon como sitio de compras más usado en el 14.º, la BBC como sitio de noticias más visitado en el 44.º, el New York Times como periódico virtual más consultado en el puesto 93, y el Huffington Post como primer blog mundial en el puesto 123, con unos 13 millones de visitantes únicos mensuales a finales de 2010.

¿Cuántos?

001-222 50 ideas digital.indd 133 22/02/2012 16:12:27

134 negocioygobierno

do: cuántas páginas distintas ve dentro de un sitio, y cuántas acciones llevan a cabo.

Cuando alguien llega a un sitio web y visita solo una página, se cono-ce como bounce («rebote»). El porcentaje de visitas que son bounces, o tasa de rebotes, se considera una estadística importante para mu-chas páginas web, dependiendo del objetivo del sitio. Para un periódi-co o una revista, por ejemplo, una tasa de rebote de más de un tercio de sus visitas se puede considerar un índice de mala actuación del si-tio web, mientras que un sitio que se propone ofrecer fragmentos de información al consumidor de rápido visionado puede esperar que tres cuartos o más de sus visitas sean rebotes.

El número, duración y «profundidad» de visitas a un sitio web —es decir, cuántas páginas distintas dentro del mismo utiliza un visitante medio— son importantes, entre otras cosas, para vender publicidad virtual. Igualmente importante en este campo es el «itinerario clic» que siguen los usuarios: con qué interactúan realmente una vez en el sitio, y cuándo y dónde tienen más tendencia a abrir la publicidad.

Itinerarios de navegación De manera más general, los cami-nos de entrada y salida de cada visitante constituyen una informa-

El arte de modificar los servicios digitales en respuesta a los datos es una de las técnicas más importantes y sofisticadas en muchos negocios del siglo xxi. Tanto para los negocios como para los comentaristas, el análisis de datos de los usuarios ofrece una oportunidad sin precedentes para entender los patrones de uso e interés entre los usuarios. Las mayores compañías de juegos que crean productos para plataformas como Facebook pueden usar más de mil millones de datos al día para explorar precisamente qué aspectos de sus programas han captado o no el interés de sus usuarios, además de probar y comparar si todo

—desde los distintos niveles de dificultad hasta los distintos colores y ubicaciones de los objetos en la pantalla— genera interés o no. Esto ha llevado a innovaciones como el split testing, introducido online por Amazon, por el que se prueban alteraciones únicas en un sitio web mostrando dos versiones distintas del sitio a visitantes distintos, y viendo cómo esta diferencia entre ellos cambia su comportamiento. Paralelamente a técnicas como esta están creciendo otras maneras de permitir a los propios usuarios expresar sus preferencias e ideas, y la ciencia y el arte de analizar los datos de comportamiento se están haciendo cada vez más refinados.

Refinamientos cada vez más refinados

001-222 50 ideas digital.indd 134 22/02/2012 16:12:27

135 analítica

ción importante para un sitio web: ¿cómo han llegado y adónde han ido después? Las fuentes de llegada se dividen normalmente entre visitas directas (por las que alguien escribe en la dirección web y se dirige directamente a un sitio), visitas referidas (por las que se ha se-guido un enlace de un sitio a otro) y las referidas mediante un busca-dor (cuando seleccionamos el enlace de un sitio web elegido entre una serie de resultados de búsqueda). En el último caso, la analítica de sitio web suele mostrar qué palabras de búsqueda han llevado a alguien hasta un sitio.

Ninguna de estas estadísticas es inmune a la manipulación: sin em-bargo, en general, los datos como las cifras de visitantes únicos se tra-tan como medida central de la influencia de un sitio web. También de importancia creciente es la prominencia en los medios sociales de un sitio web o de una página individual... y ya existen numerosas he-rramientas para mostrar cuántas veces algo ha sido compartido o co-mentado en Facebook, enlazado vía Twitter o colgado en una serie de distintos medios sociales o de agregación.

Analizar este tipo de datos puede sugerir una potente información so-bre tendencias e intereses: el análisis de las menciones positivas en las redes sociales se ha utilizado para predecir resultados tales como el éxito de taquilla de una película. Y ninguna empresa con presencia digital actualmente se atreve a llevar su negocio sin tener muy pre-sente cómo se utilizan exactamente sus servicios, qué se comenta de ellos, cómo se comparten y cómo compiten.

La idea en síntesis:los datos sin analizar 

no significan nada

«El reto para la industria está en divulgar el conocimiento

y formar a los usuarios sobre qué hacer con los datos.»

brianclifton

001-222 50 ideas digital.indd 135 22/02/2012 16:12:27

136 negocioygobierno

La primera patente de una forma de OCR se presentó ya en 1929, pero los primeros esfuerzos por crear máquinas de este tipo fueron en-gorrosos y muy caros, y no fue hasta 1955 cuando aparecieron los pri-meros aparatos comerciales, el primero de ellos una máquina instala-da en el Reader’s Digest. Las primeras máquinas solo eran capaces de reconocer una selección limitada de caracteres, y estos tenían que es-tar impresos en determinados tipos de letras: la primera de estas tipo-grafías era conocida como OCR-A. Tenía una forma tan simplificada y estandarizada que podía resultar difícil de leer. En 1968 apareció la tipografía OCR-B, que usaba siluetas más suaves y caracteres más cla-ros para el ojo humano.

A mediados de la década de 1970, estas tipografías empezaban a domi-nar por todo el sector, y el OCR se empezaba a usar mucho entre las empresas para tareas como el procesado de datos bancarios y de conta-bilidad, clasificación de correo (el servicio de correos de Estados Uni-dos empezó a usar una forma de OCR en 1965) y pago de facturas (In-

33  Reconocimiento óptico de caracteres

El reconocimiento óptico de caracteres, u OCR (del inglés Optical Character Recognition), es el proceso por el cual una máquina escanea y reconoce palabras y cifras impresas. Componente vital del esfuerzo por llevar todo el conocimiento humano a un formato disponible y «buscable» en formato digital, permite que los libros y otros documentos impresos se conviertan automáticamente en formatos digitales, en vez de tener que escribirse laboriosamente a mano. Los orígenes del OCR son anteriores a Internet, pero, como tantas otras tecnologías, su pleno potencial está asociado a los recursos de la red. De manera similar, el campo de enseñar a las máquinas a «leer» textos manuscritos y otra información no disponible en formatos impresos sigue progresando.

cronología1955 1965 1974 1993Aparecen las primeras máquinas comerciales OCR

El servicio de correos de EE.UU. adopta el OCR

Se inventa el sistema omnitipográfico Aparece el Intelligent Character Recognition (ICR) como tecnología comercial

001-222 50 ideas digital.indd 136 22/02/2012 16:12:27

137 reconocimientoópticodecaracteres

glaterra fue el primer país de Europa en introducir un sistema de OCR en la ban-ca, vía el National Giro, en 1968). Des-de mediados de la década de 1960, em-pezó a ser posible conectar los sistemas OCR directamente a los ordenadores, produciendo datos como archivos elec-trónicos. Pero las máquinas siguieron siendo engorrosas y caras hasta la prime-ra mitad de la década de 1970, con un coste de decenas de miles de dó-lares, con lo que solo estaban en los despachos de las grandes empresas.

En 1974, el OCR avanzó significativamente con el invento de Ray Kurzweil de un sistema «omnitipográfico» capaz de identificar los ca-racteres impresos de varias tipografías distintas, en vez de solo los carac-teres diseñados específicamente para los aparatos OCR —un avance que por primera vez permitía la digitalización automática en bloque de documentos impresos, como las revistas y los periódicos, para convertirlos

«¿Qué ocurre cuando los ordenadores pueden empezar a leer todos los documentos de la civilización humana?»benVershbow

cronología1955 1965 1974 1993Aparecen las primeras máquinas comerciales OCR

El servicio de correos de EE.UU. adopta el OCR

Se inventa el sistema omnitipográfico Aparece el Intelligent Character Recognition (ICR) como tecnología comercial

Digitalizar el contenido de libros es uno de los usos modernos más importantes del OCR, pero también ha supuesto siempre un problema. Gracias a la encuadernación, las páginas de un libro no quedan absolutamente planas al abrirse, sino ligeramente curvas. Eso significa que una imagen escaneada de las páginas de un libro abierto distorsiona ligeramente el texto, lo cual dificulta mucho que el programa lo procese con precisión. Hasta hace poco, las maneras principales de tratar este problema suponían o bien desencuadernar el libro —lo que en realidad lo destrozaba— o apretar las páginas bien planas con una lámina de cristal grueso, un método

ineficiente que tampoco era el más adecuado para muchos libros. Pero cuando el gigante de Internet Google empezó a digitalizar el contenido de miles de libros para el proyecto Google Books en 2004, ayudó a perfeccionar una nueva forma de tratar este problema. La técnica de Google consiste en cámaras infrarrojas que se utilizan para modelar la forma y curvatura de las páginas de un libro en tres dimensiones dentro del escáner. El resultado luego se transmite al programa de OCR, lo que le permite compensar los efectos distorsionadores de la curvatura y reconocer el texto con precisión y rapidez sin dañar los libros.

Leer libros

001-222 50 ideas digital.indd 137 22/02/2012 16:12:27

138 negocioygobierno

en bases de datos aptos para la búsqueda—. Para tareas que requieren un nivel muy alto de precisión, todavía había que recurrir a las tipogra-fías específicas OCR. Incluso hoy, la precisión total solo puede garanti-zarse con la supervisión humana, y los productos OCR accesibles al gran público solo tienen una tasa de reconocimiento de entre el 70 y el 99 por 100, dependiendo de la tipografía, la calidad de impresión, el papel, el contexto y el propio contenido.

Cómo funciona Casi todas las formas de OCR funcionan si-guiendo uno de dos métodos. En cada caso, una imagen de una página impresa se escanea mediante un sistema óptico —básicamente, to-mando una imagen fotográfica de la misma, y luego la imagen es ana-lizada por un programa informático—. El método de análisis más an-tiguo y más simple se llama adaptación de matriz, que toma cada número o letra de la página uno por uno, separándolo en una serie de puntos claros y oscuros en una cuadrícula diminuta, la matriz de su título. Estos puntos se comparan entonces con una biblioteca de refe-rencia de caracteres diferentes, hasta que un número suficiente de puntos coincide como para que el ordenador considere que el carácter en la imagen coincide con un carácter concreto de su memoria.

El segundo método es un proceso más complejo llamado extracción de rasgos. En vez de intentar comparar caracteres con información fija almacenada en su memoria, un programa que utiliza esta técnica —también conocido como «reconocimiento inteligente de caracte-res» o ICR— busca rasgos generales en la página impresa, de una ma-nera parecida a la gente cuando lee.

ICR está lo bastante avanzado como para ser utilizable no solo con un conjunto de topografías distintas, sino también con caligrafía manuscri-ta, aunque el programa ha de ser «entrenado» para reconocer los rasgos individuales de la caligrafía del usuario. Los programas ICR incluyen a menudo procesos de aprendizaje que les permiten exhibir un grado de inteligencia artificial, buscando activamente y recordando patrones. Cuando está correctamente entrenado para leer la letra de un indivi-duo, la tasa de reconocimiento puede ser de más del 90 por 100, lo que lleva a innovaciones en teoría potentes en el campo de la anotación de datos y de la escritura rápida en una máquina.

«La urgencia por digitalizar el documento escrito es uno en una serie de momentos

críticos de la larga saga de nuestro impulso por acumular, almacenar y recuperar la

información de manera eficiente.»anthonygrafton

001-222 50 ideas digital.indd 138 22/02/2012 16:12:27

139 reconocimientoópticodecaracteres

Como sugiere la evolución del ICR, el OCR es un campo cada vez más especializado. Dentro de él los programas tienden a ser usados para una de estas dos funciones específicas: el reconocimiento de tex-to y la captación de grandes cantidades de datos repetitivos. Actual-mente, los programas OCR están a menudo integrados en una serie de aplicaciones comunes —desde el Acrobat Reader de Adobe hasta el Microsoft Office—, además de estar disponibles gratuitamente en la red. La aplicación más común del OCR sigue siendo con textos escri-tos en el alfabeto latino, pero va mejorando gradualmente para len-guajes en otros alfabetos, desde el griego y el ruso hasta el chino y el árabe, por no hablar de otras formas escritas, incluyendo la música. Tal vez lo más destacable es que el OCR es también una de las tecno-logías centrales de la continuada digitalización de millones de libros y documentos de todo el mundo, un proceso que está llevando siglos de página impresa al reino digital.

La idea en síntesis:la lectura mecanizada 

está derribando las barreras digitales

Excepto cuando una tipografía diseñada específicamente para OCR se utiliza en buenas condiciones, hasta las mejores tecnologías OCR cometen algunos errores, en especial cuando se trata de libros más viejos, más complejos o con tipografías anticuadas, palabras o maneras de escribirlas poco habituales, o papel estropeado. Eso significa que siempre es necesario cierto grado de supervisión humana para garantizar la precisión. Sin embargo, con millones de textos escaneados, es sencillamente poco eficiente emplear trabajadores a revisar cada texto o hasta cada pequeño problema dentro de un texto. Una solución elegante

a este problema implica el uso de CAPTCHAS: textos de lectura utilizados por millones de páginas web para diferenciar a los visitantes humanos genuinos que desean colgar comentarios, de los programas que intentan llenar Internet de enlaces de spam. Estos tests suelen pedirnos que volvamos a teclear un par de palabras escritas con un patrón enmascarado. Convirtiendo una de estas palabras en algo que un programa OCR encontró difícil de entender, se hace claramente posible utilizar la capacidad de lectura de miles de personas distintas para resolver algunos de los problemas más complicados para los sistemas OCR, palabra a palabra.

Mejores datos a través del CAPTCHA

001-222 50 ideas digital.indd 139 22/02/2012 16:12:27

140 negocioygobierno

Aunque la traducción automática ha sido fuente de especulaciones durante siglos, la historia de la traducción mecanizada práctica empe-zó en la década de 1950, con los primeros experimentos positivos es-tadounidenses con la traducción automática del ruso. Sin embargo, las dificultades para traducir más que un pequeño fragmento de texto en los primeros ordenadores eran considerables, debido a las comple-jidades del vocabulario, la gramática y la semántica.

El proceso de traducir un idioma implica dos etapas clave: determinar exactamente el significado del texto, y luego plasmar ese significado lo más precisamente posible en un idioma distinto. La sencillez de esta explicación oculta exactamente lo complejo que resulta determi-nar el significado de un texto, y no fue hasta la década de 1980 cuan-do los ordenadores empezaron a ser lo bastante potentes y a estar lo bastante distribuidos por todas partes para que hubiera avances signi-ficativos en enseñar a una máquina a «entender» el texto.

Dos métodos Los sistemas de traducción automática tienden a funcionar ya sea vía normas o vía estadísticas, o una combinación de ambas. Los sistemas basados en la normativa son los primeros que se utilizaron, y el más básico de ellos seguía sencillamente un enfoque tipo diccionario, traduciendo palabra por palabra, como quien con-sulta un diccionario. Tales normas tienen limitaciones evidentes cuan-

34  Traducción automática

Aparte de la censura, la mayor y única barrera para la comunicación virtual entre muchos individuos es el idioma, y la World Wide Web se puede considerar como una serie de redes solapadas, separadas las unas de las otras por restricciones lingüísticas. Teniendo esto en cuenta, los programas informáticos capaces de traducir entre idiomas con rapidez y precisión son una herramienta importante, y que tiene una larga y distinguida historia digital.

cronología1954 1968 1983 1997 2007 2010Primera traducción totalmente automatizada

Fundación de la empresa de traducción automática SYSTRAN

Primer sistema de traducción automática en un microordenador

Babel Fish lanza SYSTRAN en la web

Lanzamiento de Google Translate Lanzamiento de Word Lens

001-222 50 ideas digital.indd 140 22/02/2012 16:12:27

141 traducciónautomática

do nos encontramos frente a múltiples sentidos, orden de las palabras y ambigüedades... algo que se puede compensar en parte por otra técnica basada en la normativa que se conoce como traducción basada en la transferencia. Este enfoque intenta convertir la estructura subyacente de un texto a una forma intermedia básica de este idioma, y luego pa-sarla a una forma intermedia básica del otro idioma, con el objetivo final de convertir esa estructura en un texto completo en el idioma de llegada. Una tercera técnica basada en la normativa, más que usar for-mas intermedias básicas de los dos idiomas en cuestión, utiliza de he-cho un lenguaje intermedio totalmente distinto para codificar el signi-ficado de un texto, conocido como «interlingua».

A su vez, la traducción basada en las estadísticas, en lugar de intentar codificar el significado de un texto, se basa en analizar grandes canti-dades de texto existentes en ambos idiomas. Este enfoque empezó a ganar popularidad en la década de 1990 y hoy día es muy utilizado porque es capaz de aprovechar la capacidad de los ordenadores mo-dernos para analizar grandes cantidades de datos. Es el método que

cronología1954 1968 1983 1997 2007 2010Primera traducción totalmente automatizada

Fundación de la empresa de traducción automática SYSTRAN

Primer sistema de traducción automática en un microordenador

Babel Fish lanza SYSTRAN en la web

Lanzamiento de Google Translate Lanzamiento de Word Lens

Las tecnologías digitales aportan su rendimiento máximo cuando se combinan entre ellas, y la traducción no es una excepción. Junto a las traducciones orales, entre las aplicaciones más impresionantes que han aparecido en los smartphones en los últimos años están las que combinan la traducción automática con las cámaras telefónicas para ofrecer una retraducción instantánea del mundo. Uno de los primeros programas de este tipo, el Word Lens, apareció en 2010 para iPhone. Inicialmente funcionaba solo para inglés y español, y los usuarios solo tenían que dirigir la cámara de su teléfono hacia un texto impreso en un idioma

y en la misma escena aparecía el mismo texto con su traducción. Esta, al menos, era la idea: grandes cantidades de texto crean problemas para el programa, como el movimiento de la mano, las tipografías poco habituales, la escritura a mano o la sintaxis compleja. Todo y así, el programa —como el parecido Google Goggles app, que se puede usar para fotografiar texto extranjero y luego traducirlo rápidamente mediante los servicios virtuales de Google—ofrece otro bocado tentador de un futuro en el que la traducción instantánea, a partir de palabras escritas u orales, esté al alcance de todos los bolsillos.

Señala y traduce

001-222 50 ideas digital.indd 141 22/02/2012 16:12:27

142 negocioygobierno

actualmente utiliza Google en su servicio de traducción online, una vez decidió «entrenar» sus máquinas en distintos idiomas presentan-do unos 200.000 millones de palabras de documentos en múltiples idiomas tomados de las Naciones Unidas. Este enfoque no se basa tanto en que la máquina «entienda» el texto, sino en el estudio de patrones. Sin embargo, si se le dan un número suficiente de palabras, es bastante potente.

La inteligencia artificial es también un factor cada vez más influyente en los avances de un campo, con programas capaces de aprender y mejorar su propio enfoque, siendo una herramienta esencial de inves-tigación. En todo ello, el creciente volumen de texto digital disponi-ble en varios idiomas es al mismo tiempo un gran activo para la inves-tigación y un inmenso reto.

Problemas y potencial Actualmente, la traducción automática perfecta sin la ayuda del ser humano no existe. De hecho, hay quien dice que algo como la traducción «perfecta» tampoco podrá existir nunca, ni siquiera cuando la hace un humano bilingüe, puesto que las diferencias sutiles de significado entre las palabras y las ideas en dis-tintos idiomas no pueden nunca ser totalmente reproducidas. A pesar de ello, una tasa de precisión básica de más del 90 por 100 no es rara en los programas modernos. Lo que sigue siendo más problemático son los momentos de ambigüedad y complejidad que todos los idiomas po-

El idioma más utilizado del mundo entre los usuarios de Internet es, no es de extrañar, el inglés, usado por más de 500 millones de personas en la red en 2010... con unos 100 millones más de usuarios que el segundo idioma más utilizado en la red, el chino. Luego vienen el español, con 150 millones; el japonés, con 100 millones; el portugués, con 83 millones, y el alemán, con 75 millones. Sin embargo, el ritmo al que cambian estas estadísticas sugiere que el panorama global será muy distinto dentro de una década y que el actual dominio del inglés, que ahora impregna más del 40 por 100 de la red, será sustituido por un mundo digital más fragmentado.

El número de hablantes chinos en la red creció entre 2000 y 2010 más del 1.200 por 100, más de cuatro veces la tasa de crecimiento a la que aumentaron los hablantes ingleses. Pero el chino palidece en comparación con la tasa de crecimiento del árabe (un 2.500 por 100) y del ruso (un 1.800 por 100), con el portugués también próximo al 1.000 por 100 de aumento durante este mismo período. A medida que el mundo entero se va haciendo digital, la gran historia no será simplemente la convergencia tecnológica, sino la divergencia lingüística y una demanda siempre creciente de comunicación entre recursos en idiomas distintos.

Idiomas de la web

001-222 50 ideas digital.indd 142 22/02/2012 16:12:28

143 traducciónautomática

seen, donde tanto los análisis basados en las normas como los basados en el análisis estadístico de frases se estrellan con ambigüedades bási-cas como una referencia singular, una peculiaridad lingüística, algo que no tiene equivalencia lingüística directa, etc.

Los nativos de un idioma suelen ser capaces de resolver tales ambigüedades, aunque pue-den requerir conocimientos especializados o cierta investigación. Ni siquiera los sistemas más avanzados de inteligencia artificial ac-tuales son generalmente capaces de resolver estas ambigüedades, aunque la frontera se va alejando continuamen-te, como las mejoras en el campo de las conjeturas informáticas: es decir, de enseñar a las máquinas cómo cuadrar los términos «difusos» con otros que no coinciden exactamente.

Aplicaciones Los programas gratuitos de red incluyen Google Translate y Babel Fish (introducido en 1997, alimentado por el sistema de traducción SYSTRAN y bautizado con el nombre del pez capaz de traducir todos los idiomas en la novela de Douglas Adams Guía del au-toestopista galáctico), aunque también abundan los programas de pago.

Otro servicio que está justo empezando son las aplicaciones de traduc-ción oral, diseñadas a menudo para smartphones. iLingual, por ejem-plo, funciona efectivamente como cuaderno de frases audio para mó-vil, ofreciendo frases hechas en varios idiomas. Más ambicioso, Google estrenó un aspecto de su aplicación Translate para Android, a princi-pios de 2011, que ofrecía un «modo de conversación» y traducía con-versación oral del inglés al alemán y viceversa, lo que permitía una conversación básica entre dos personas que no compartieran idioma. Teniendo en cuenta el avance gradual que se está haciendo tanto en el mundo de la informática móvil como en las técnicas de traducción automática, las conversaciones bilingües en tiempo real totalmente automatizadas podrían ser una realidad en un futuro no tan lejano.

La idea en síntesis:la tecnología puede 

ayudar a unir nuestros idiomas 

divididos

«Toda traducción es un compromiso.»benjaminJowett

001-222 50 ideas digital.indd 143 22/02/2012 16:12:28

144 negocioygobierno

Hay una forma de servicio basado en la localización que ha estado dis-ponible desde los inicios de la World Wide Web gracias a la capacidad de identificar la ubicación aproximada de la mayoría de usuarios de la red a través de su dirección IP, algo que ha permitido a las empresas adaptar los sitios web basándose en la localización del usuario, ofrecer publicidad específica, etc. Pero los verdaderos servicios basados en la localización solo empezaron a ganar terreno en el cambio de siglo, y en especial desde que empezaron a popularizarse los smartphones y otros dispositivos con GPS y conectividad a Internet integrados.

LBS y GIS Muchos servicios basados en la localización (o LBS) aprovechan un cuerpo considerable de trabajo que se ha hecho a lo largo de las últimas décadas para desarrollar los Sistemas de Informa-ción Geográfica (GIS). En su definición más sencilla, los GIS repre-sentan una versión digital de buena parte de la cartografía detallada y los datos de ubicación que poseen organizaciones que van desde los

35  Servicios basados en la localización

La geolocalización significa conocer la ubicación geográfica exacta de alguien o de algo. Es una idea sencilla y que técnicas como los GPS (Technical Positioning Systems) ya han hecho realidad para muchos millones de personas. Pero lo que sigue estando en los inicios es la idea de los servicios basados en la localización, un campo en expansión de aplicaciones digitales que adaptan los resultados a la ubicación exacta de un usuario, pero también le ofrecen servicios referentes a la localización de otras personas. Es una idea con muchas implicaciones tanto de privacidad, de comunicaciones, de negocio como de ocio..., además de representar un uso creciente de las tecnologías digitales y en red, no solo cuando estamos sentados en la oficina o en una habitación de casa, sino también cuando estamos moviéndonos.

cronología1978 1995 2000 2002 2009 2010Lanzamiento del primer satélite GPS

Primera producción de un sistema de navegación GPS para coches

Un GPS totalmente preciso se pone a la disposición de los ciudadanos por primera vez

Lanzamiento del primer navegador Tom Tom

Lanzamiento de Foursquare Lanzamiento de la aplicación Places de Facebook

001-222 50 ideas digital.indd 144 22/02/2012 16:12:28

145 serviciosbasadosenlalocalización

gobiernos nacionales hasta los servicios de emergencia, instituciones académicas y autoridades de planificación.

Los datos de los GIS han tendido históricamente a ser utilizados en aplicaciones de negocios y profesionales —para la planificación urba-na, los servicios de emergencia, el mantenimiento de infraestructuras, la administración regional y otras actividades que se apoyan en una gran cantidad de datos detallados sobre localización y demarcacio-nes—. Pero tanto las bases de datos como los sistemas desarrollados por GIS son herramientas digitales cada vez más accesibles —ya sea gratuitamente a través de iniciativas del gobierno o como recursos de pago de empresas privadas— para aquellos que desarrollan aplicacio-nes basadas en la localización.

Usos generales de los LBS El uso más obvio de un LBS (servi-cio basado en la localización) es, por supuesto, decirle a alguien dónde se encuentra y proporcionarle información detallada sobre lo que le ro-

cronología1978 1995 2000 2002 2009 2010Lanzamiento del primer satélite GPS

Primera producción de un sistema de navegación GPS para coches

Un GPS totalmente preciso se pone a la disposición de los ciudadanos por primera vez

Lanzamiento del primer navegador Tom Tom

Lanzamiento de Foursquare Lanzamiento de la aplicación Places de Facebook

Un servicio «hiperlocal» es aquel que va más allá de ofrecer simplemente contenido a medida para distintas zonas, centrándose en ofrecer contenido específicamente adaptado a una zona local pequeña y claramente definida. El término fue acuñado en Estados Unidos en los años noventa para referirse a las noticias locales, pero desde entonces ha sido adoptado en la red para describir el potencial de los recursos digitales enfocados a —y a menudo generados en buena parte por— las necesidades de una zona demasiado local y específica como para ser tratada con detalle por una base de datos o sitio más general. Tal vez el servicio hiperlocal más conocido de la red fue fundado por el popular divulgador

científico Steven Johnson en 2006. Llamado outside.in, se basaba en el principio que buena parte de lo que un residente medio de un vecindario podía desear hacer o saber —desde el horario de la reunión de la junta escolar hasta las novedades sobre servicios locales, tiendas, horario de apertura, estacionamiento, normativas, actos públicos, etc.— o bien no existía, o era extremamente difícil de encontrar en la web. El servicio abarca ahora 57.000 vecindarios e invita a los usuarios a «mantenerse al día sobre lo que ocurre, descubrir cosas nuevas sobre donde vives, investigar, y colaborar activamente en la conversación local. O, si tu barrio todavía no aparece, a iniciar la conversación».

Volverse hiperlocal

001-222 50 ideas digital.indd 145 22/02/2012 16:12:28

146 negocioygobierno

dea. Los sistemas de navegación por satélite de los coches son el ejemplo comercial más utilizado de esta téc-nica, con los servicios como Goo gle Maps para aparatos móviles pisándo-le los talones. La información carto-gráfica local detallada se completa con listas de cosas como tiendas, instala-ciones, opiniones, imágenes y enlaces interesantes.

Concretamente, las necesidades habi-tuales de un usuario se pueden clasifi-car en cinco categorías: herramientas de localización, para determinar exac-tamente dónde se encuentra en re-lación con la geografía local; herra-mientas de navegación, para ayudar a planificar una ruta hacia un destino buscado; herramientas de búsqueda geográfica, para ayudar a encontrar instalaciones o tipos de servicios con-cretos; herramientas de búsqueda de otros datos, para buscar información sobre cualquier cosa, desde horarios de transporte público hasta horarios de acontecimientos; y herramientas so-ciales, para relacionarse con las ubica-ciones y actividades de otras personas en lo más cerca posible al tiempo real.

Usos particulares de los LBS Las aplicaciones potenciales de los an-teriores son casi ilimitadas, pero has-ta ahora han tenido un impacto par-

ticular en solo un número limitado de campos. Las ayudas de navegación para vehículos son el caso más evidente y ya han ayudado a transformar la experiencia de la conducción para mucha gente (además de promo-cionar la preocupación por que su uso pueda perjudicar la atención de algunos conductores en la carretera y mermar la capacidad general de conducción). Pero hay usos más especializados de servicios parecidos que tienen también potencial, en especial en servicios de emergencia, en los que localizar a personas que no saben o no son capaces de comunicar su paradero es de vital importancia. En estos casos, un LBS puede transmi-tir automáticamente una ubicación precisa, además de alertar potencial-mente a cualquier otra persona de los aledaños que sea capaz de ayudar.

Fundado en 2009, Foursquare es un servicio de red social con una diferencia: está totalmente basado en los servicios móviles y utiliza la tecnología GPS para permitir a los usuarios colgar un anuncio regularmente actualizado de su ubicación. Estas actualizaciones aparecen en las cuentas de Facebook o Twitter y permiten saber a los usuarios dónde está su red de amigos en relación con los demás, en tiempo real. Pero más allá de esto, el servicio permite a la gente «controlar» cuándo están en lugares concretos, lo que además de actualizar su estatus les proporciona puntos, gratificaciones virtuales en forma de «chapas» y eleva su estatus, aspirando a convertirse en «alcalde» de un punto de control concreto: es decir, la persona que en los últimos sesenta días ha pasado por un lugar más días que nadie. Esta combinación de mecánica de juego y red social ha demostrado ser atractiva, en especial porque los usuarios obtienen más poder dentro de la red cuanto más se implican en ella: desde poder, en el primer nivel de logro, editar información sobre locales, hasta, en el nivel máximo, poder añadir y ajustar locales y controlar el flujo global de sugerencias y tráfico.

Foursquare

001-222 50 ideas digital.indd 146 22/02/2012 16:12:28

147 serviciosbasadosenlalocalización

Un uso cotidiano potente de tal control au-tomático de la ubicación lo representa la aplicación de 2010 Neer, que permite dar a otras personas de la red social inmediata el permiso para recibir actualizaciones automá-ticas de la propia ubicación —lo que permi-te, por ejemplo, a unos padres controlar que sus hijos han llegado al colegio sanos y sal-vos, o saber dónde se encuentran en un cen-tro comercial—. Para redes sociales más am-plias, la funcionalidad del Places de Facebook, también introducida en 2010, permite a los usuarios con smartphones compartir su localización con sus amigos y deja que otras aplicaciones que se integran en Face- book hagan uso también de esta funcionalidad.

Tendencias A principios de 2011, Microsoft publicó los resulta-dos de una investigación encargada recientemente de las tendencias dentro del sector de los LBS. Los mayores usos de los sistemas LBS se orientaban firmemente hacia temas más «tradicionales» de viaje e in-formación: la navegación GPS era la más utilizada, seguida por las predicciones meteorológicas, las actualizaciones del tráfico, la infor-mación de restaurantes y la situación de instalaciones. Pero había nuevas tendencias que parecían estar creciendo, como los juegos, el geo-tagging de imágenes y vídeos dentro de la información sobre dón-de han sido tomados, y las redes sociales.

También había una serie de preocupaciones reflejadas sobre la priva-cidad y los sistemas LBS, un miedo comprensible teniendo en cuenta que la información sobre la situación física de una persona representa una nueva forma de inmediatez y de exposición dentro de la cultura digital, que históricamente había permitido a las personas cierto ano-nimato y libertad de las limitaciones u obligaciones de la situación fí-sica. Esta integración creciente del espacio físico y de la tecnología en red es, en este sentido, una de las transiciones digitales más profundas de los últimos años y podría, por este motivo, no llegar a obtener la penetración de otros servicios.

La idea en síntesis:tecnología que sabeexactamente dónde

estás

«Los modelos de negocio que rodean la intersección entre las personas y sus lugares favoritos son interminables.»JoshWilliams

001-222 50 ideas digital.indd 147 22/02/2012 16:12:28

148 negocioygobierno

Los productos virtuales empezaron a existir paralelamente a los pri-meros mundos virtuales compartidos: los Multi-User Dungeons de la década de 1980, de solo texto. Elementos como armas, corazas y po-ciones daban beneficios a los personajes de estos mundos de juego, y los jugadores pronto empezaron a intercambiarlos informalmente, ac-cediendo a intercambiarlos por otros productos.

Transacciones así eran una actividad económica «gris», orquestada fue-ra de las normas y del entorno oficiales de la mayoría de juegos, pero no explícitamente contra su espíritu o sus reglas. Pero cuando los juegos virtuales más sofisticados empezaron a implicar un número considerable de jugadores, a finales de la década de 1990 —y en particular después del lanzamiento de Ultima Online 1997—, esta actividad independien-te de los jugadores empezó a volverse más sofisticada y, para sorpresa de muchos, comenzó a funcionar con dinero real y también a base de inter-cambios, gracias a sitios de subastas en la red como eBay, que permitía a los jugadores ofrecer bienes virtuales a cambio de dinero. El dinero cam-biaba de manos y luego los jugadores se encontraban dentro del mundo virtual con el fin de intercambiarse los productos virtuales en cuestión.

36  Productos virtuales

Los productos virtuales son artículos que existen solo en forma digital, y que —a diferencia de la música, las películas o los libros adquiridos digitalmente— no tienen un valor o una existencia intrínsecos más allá de un entorno virtual. Esto significa que tienden a existir dentro de los mundos virtuales y, en especial, dentro de los videojuegos, en los que la adquisición y la posesión de artículos virtuales son valoradas entre los jugadores gracias al estatus y a los beneficios que confieren. Hay un número creciente de juegos en red y mundos virtuales que se financian total o parcialmente a través de la venta de artículos virtuales, mientras que el intercambio de los mismos se ha convertido rápidamente en una economía global multimillonaria.

cronología1997 2003 2005 2007Lanzamiento de Ultima online Lanzamiento de Second

LifeSony Entertainment abre el mercado de productos virtuales

Un personaje de World of Warcraft se vende por casi 10.000 $

001-222 50 ideas digital.indd 148 22/02/2012 16:12:28

149 productosvirtuales

El comercio de elementos virtuales entre jugadores no era algo desea-ble para las empresas que gestionaban la mayoría de juegos virtuales: representa una amenaza potencial contra un juego porque permite a los jugadores apalancar recursos del mundo real (es decir, su dinero) en vez de recompensar la destreza y el esfuerzo en el juego, además de perjudicar los ingresos potenciales a los propios operadores de juegos. Sin embargo, siguió siendo popular, con niveles de demanda de juga-dores que permitieron a algunos jugadores embolsarse miles y hasta decenas de miles de dólares reales en un año mediante la venta de productos virtuales, a menudo a través de sitios de subasta de terceros. Hubo casos en los que los artículos virtuales individuales podían lle-gar a valer sumas cuantiosas, gracias al esfuerzo considerable requeri-do para obtenerlas: se dice que un solo personaje dentro de World of Warcraft, por ejemplo, se vendió en 2007 por unos 9.500 $.

Modelos oficiales Teniendo en cuenta el nivel de demanda de productos virtuales por parte de los jugadores, muchas empresas de jue-gos, con el tiempo, han empezado a introducir modelos para permitir su venta oficialmente. El modelo más básico de estos se conoce como free to play, en el que no cuesta nada acceder a un juego o mundo

En países como China, amasar y luego vender bienes virtuales en el mercado internacional se ha convertido en un importante sector digital. «Cultivar oro»: se llama así porque históricamente tendía a incluir jugadores que hacían largas y repetitivas partidas dentro de un juego —el más popular de ellos era World of Warcraft— para ganar la máxima moneda del juego u «oro» posible. Los negocios prósperos de cultivo de oro solían tener equipos de trabajadores que usaban ordenadores en almacenes, durante diez o más horas al día, por turnos, que a menudo dormían in situ, y el resultado era la

venta de oro por la red por parte de un empresario que gestionaba la «granja» y pagaba a los trabajadores según su capacidad de obtener oro del juego. Las empresas de juegos han tomado medidas enérgicas contra este tipo de negocios, pero se cree que el mercado global vale cientos de millones de dólares y que cada vez incluye servicios más sofisticados, como personajes «compensadores de poder» que hacen el trabajo duro de hacer avanzar a un personaje hacia el final de un juego para jugadores occidentales dispuestos a pagar y no tener que esforzarse demasiado en el juego.

Granjas de oro

cronología1997 2003 2005 2007Lanzamiento de Ultima online Lanzamiento de Second

LifeSony Entertainment abre el mercado de productos virtuales

Un personaje de World of Warcraft se vende por casi 10.000 $

001-222 50 ideas digital.indd 149 22/02/2012 16:12:28

150 negocioygobierno

virtual, pero los productos virtuales se compran luego a través de cana-les oficiales, lo que concede a los jugadores el acceso a nuevas capacida-des, campos, a una progresión más rápida o, simplemente, a diferentes tipos de aspecto de los personajes. Esto se ha convertido en un modelo dominante de juego online en Asia, donde el valor de las ventas de los productos virtuales oficiales dentro de los juegos y mundos virtuales se calcula que supera los cinco mil millones de dólares anuales.

La venta de productos virtuales se apoya en gran cantidad de pequeñas transacciones, conocidas como microtransacciones, hechas a menudo usando una moneda propia del juego que ha sido adquirida con dinero real a través de la empresa que gestiona el juego o mundo virtual. Como en otras áreas de la cultura digital, una de las tendencias más importan-tes de los últimos años ha sido la creciente importancia de las redes so-ciales y de las ventas de productos virtuales, dentro de juegos más de-senfadados a los que juegan decenas de millones de personas por todas las redes sociales. Tales juegos aprovechan a menudo no solo las ventas de productos virtuales, sino lo que se conoce como el modelo de pro-ducto freemium: hay una versión básica a la que se puede jugar gratis y

luego se requiere pagar un poco para acceder a las partes más va-liosas de la versión completa.

A medida que ha ido aumentando el valor global del intercambio de productos virtuales, se han ido adoptando cada vez más otros mo-delos parecidos, desde el estable-cimiento de una tasa de inter-cambio entre empresas reales y virtuales —algo que Second Life ofrece desde 2003, con su Lin-den dólar (L$), que a principios de 2011 se cambiaba a una tasa de 200 LS = 1 $— hasta modelos de negocio «basados en el comer-cio», en los que las empresas per-miten a las plataformas oficiales comerciar con productos virtua-les. Muchos jugadores prefieren la seguridad y la fiabilidad de estas plataformas oficiales al reino más oscuro del mercado secundario. Sony Entertainment, por ejemplo, ha creado un mercado oficial en el que los jugadores de algunos de sus

Hay algunos economistas que consideran que la economía del intercambio de bienes virtuales ofrece una manera potencialmente muy fuerte de explorar las tendencias de la economía del mundo real y, en particular, el campo tan difícil de analizar de las motivaciones y los intereses humanos. Tal vez el economista que más ha trabajado en este terreno es el profesor estadounidense Edgard Castronova, cuyo trabajo ha demostrado que los jugadores de los mundos virtuales actúan en el aspecto económico de manera extraordinariamente parecida a la gente en las situaciones económicas reales. Teniendo en cuenta la posibilidad de manipular y registrar cada detalle de un entorno virtual, eso sugiere que los entornos virtuales pueden convertirse en laboratorios muy potentes para explorar —y probar— ideas económicas, desde la imposición de tasas y redistribución hasta las estructuras de precios, estructurando los incentivos económicos y las percepciones individuales de valor y equidad.

Aprender lecciones reales

001-222 50 ideas digital.indd 150 22/02/2012 16:12:28

151 productosvirtuales

juegos pueden intercambiar y comprar oficialmente productos virtuales, pagando una pequeña comisión en cada transacción. Los propios merca-dos de Sony están operados por el Live Gamer de la empresa, que se espe-cializa en gestionar mercados oficiales de productos virtuales de juego.

Mercados globales Uno de los aspectos más destacables del mer-cado de los productos virtuales son las barreras relativamente débiles para obtener objetos virtuales. Si alguien tiene un ordenador y acceso a Internet, requiere muy poca formación para participar en la mayoría de juegos para obtener productos: la inversión más importante que tiene que hacer es, simplemente, tiempo. Eso ha creado una oportunidad eco-nómica inusualmente global, donde aquellos que tienen menos oportu-nidades de ganar dinero pueden invertir su tiempo ganando bienes o monedas virtuales, que luego pueden vender a gente más rica y dispuesta a pagar dinero por cosas así para no tener que invertir su propio tiempo.

Muchas de estas evoluciones presentan graves dificultades no solo para aquellos que gestionan los juegos y los mundos virtuales, sino también para los gobiernos y las autoridades legisladoras, por no hablar de aque-llos que se sirven de los mundos virtuales para el ocio y aquellos que los usan como mezcla de juego y trabajo: que juegan para obtener un rendi-miento económico. La declaración y tasación oficial de los rendimien-tos obtenidos de la venta de bienes virtuales son uno de estos proble-mas, como lo son los derechos de la propiedad virtual, teniendo en cuenta que estos bienes no existen fuera de los ordenadores y como tales pueden ser confiscados por estas empresas cuando lo crean convenien-te. Otros problemas legales tienen que ver con la capacidad de los juga-dores para buscar la compensación o reparación si se les roban o retiran los bienes virtuales, por no hablar del aspecto ético de las condiciones y los derechos laborales, si es que tienen, de las personas que se ganan la vida con la venta de productos virtuales fuera de los canales oficiales.

La idea en síntesis:el valor tiene poco que 

ver con la realidad física

«Los juegos que elegimos para distraernos se están volviendo tan complejos, tan

envolventes, que la línea que separa el juego del trabajo, el mundo del ocio de la sociedad,

empieza a desdibujarse.»Juliandibbell

001-222 50 ideas digital.indd 151 22/02/2012 16:12:28

152 negocioygobierno

Las estrategias de e-Gobierno pueden dividirse en tres áreas: el uso de las tecnologías digitales para mejorar los procesos del propio gobierno; la mejora de la calidad, la cantidad y la facilidad de las interacciones entre ciudadanos y gobierno; y la mejora de las interacciones entre ciudadanos de una manera beneficiosa para el país. Dicho simple-mente, podríamos describirlo como la mejora de la administración, la mejora en el acceso y en la provisión de servicios, y la promoción de las funciones de la sociedad civil. Hay una cuarta área que cubre la relación entre gobiernos y negocio... un área que, en especial en el sector tecnológico, tiende a ir en las dos direcciones, con la mayoría de ejemplos de mejores prácticas digitales habiendo evolucionado an-tes dentro de las empresas privadas o las comunidades online.

Acceso y provisión El mayor problema potencial de todas las formas de e-Gobierno es el acceso. Aunque en los países desarrollados la mayoría de ciudadanos tiene acceso a los ordenadores y a las co-nexiones de Internet, hay una minoría considerable —normalmente de entornos más deprimidos o aislados— que no lo tiene. Eso puede significar no solo que tal minoría no logra beneficiarse de los servicios digitales, sino que la provisión de estos servicios puede, sencillamen-te, aumentar la brecha entre los grupos en desventaja y el resto de la sociedad.

Por este motivo, las estrategias acertadas de e-Gobierno hacen mucho énfasis en el acceso, proveyendo de instalaciones digitales en lugares

37  E-GobiernoEl e-Gobierno significa simplemente «gobierno electrónico» y cubre todas las formas de interacción digital entre un gobierno y sus ciudadanos. Su uso más frecuente es para describir los avances en la manera en que los servicios, la información y las oportunidades de participación en un gobierno se están ampliando gracias a los servicios virtuales. Pero de manera más radical, también implica el uso de tales recursos digitales para explorar cómo muchos procesos gubernamentales en sí pueden estar abiertos a la transformación.

cronología1994 1999 2007 2009 2010Creación del Ministerio de Información y Comunicación en Corea del Sur

Primer memorándum estadounidense sobre e-Gobierno

La UE lanza una iniciativa de eParticipación

EE.UU. lanza el sitio web data.gov

El Reino Unido lanza el sitio web gov.uk

001-222 50 ideas digital.indd 152 22/02/2012 16:12:28

153 e-gobierno

públicos, como bibliotecas y locales del ayuntamiento, pero que tam-bién pueden implicar un uso innovador de tecnologías mucho más sencillas. En Gran Bretaña, por ejemplo, hay empresas que se han centrado tanto en el desarrollo de maneras eficientes de determinar la situación de los servicios locales como en maneras rápidas y económi-cas de imprimirlas como hojas de información instantánea para que las utilice todo el mundo.

A menudo, las opciones menos tecnológicas son herramientas demo-cráticas más potentes que los dispositivos más complejos. Por ejem-plo, los SMS enviados a los teléfonos móviles son una manera de ponerse en contacto con casi todos los miembros adultos de la mayo-ría de países del mundo... lo cual los convierte en un medio digital extremamente efectivo de divulgar mensajes públicos, como los re-cordatorios para votar o la información sobre servicios locales, y ac-tualmente incluso se está estudiando la manera para que la gente pueda votar vía SMS.

cronología1994 1999 2007 2009 2010Creación del Ministerio de Información y Comunicación en Corea del Sur

Primer memorándum estadounidense sobre e-Gobierno

La UE lanza una iniciativa de eParticipación

EE.UU. lanza el sitio web data.gov

El Reino Unido lanza el sitio web gov.uk

La acción no requiere tecnologías avanzadas, y una mentalidad digital muy complicada a veces puede obstaculizar el trabajo. Esto es parte del mensaje contenido en la obra de William Perrin, un activista comunitario de la zona de Kings Cross de Londres. En 2006, el vandalismo de su barrio movió a Perrin a poner en marcha un movimiento de acción en su comunidad basado en combinar el activismo real con un sitio web (www.kingscrossenvironment.com) con un mensaje para la gente local: «Ayudadnos a hacer de nuestro barrio un lugar mejor. Compartid vuestras noticias, puntos de vista, actos y protestas sobre Kings Cross». La filosofía de este movimiento de

base era que la acción local civil efectiva requería una información y una comunicación efectivas, y que esta se completaba mejor no mediante tecnologías complejas, sino con un simple destino virtual que agrupara noticias, opiniones y fotos locales que sustentaran quejas, resúmenes de reuniones, documentos..., todo lo que normalmente no aparece como «noticias» pero que es susceptible de estar en el punto de mira de la acción de la comunidad. El sitio ha ganado victorias destacables en planificación, mejoras, ha logrado que los problemas locales fueran escuchados, y ha servido de modelo a otros sitios web parecidos de toda Gran Bretaña.

Activismo de comunidad

001-222 50 ideas digital.indd 153 22/02/2012 16:12:28

154 negocioygobierno

Los SMS son también un método cada vez más flexible para pagar bienes y servicios. Teniendo en cuenta que los teléfonos móviles se están convirtiendo en una tecnología cada vez más universal y perso-nalizada, no sería de extrañar que lleguen a ser usados como tecnolo-gía gubernamental básica para todo lo que va desde la identificación personal hasta el pago de impuestos.

Administración Como en cualquier negocio, uno de los mayores beneficios que la tecnología puede aportar al gobierno es una comuni-cación y compatibilidad mejoradas entre departamentos o ministe-rios, con una codificación compartida de buenas prácticas que lo abarque todo, desde un formateado y etiquetado eficiente de los datos hasta el uso de herramientas eficientes para gestionar proyectos. En el caso del gobierno, el ahorro en costes y la eficiencia van potencial-mente de la mano con la mayor cesión de servicios a las autoridades locales.

Sin embargo, la seguridad y la privacidad son una preocupación más presente en la tecnología gubernamental que en prácticamente cual-quier otro campo, precisando seguridad en todo, desde las redes sin cables hasta los sistemas de correo electrónico, y los niveles de acceso cuidadosamente vigilados. Los gobiernos tienen menos libertad que la mayoría de corporaciones, por ejemplo, para usar las instalaciones de informática en la nube o los servicios de marca. No obstante, uno de los terrenos más abonados para la innovación es la creciente adopción por parte de gobiernos como el estadounidense o el británico de criterios abiertos internacionales de buenas prácticas para el almacenamien- to de documentos y datos, clasificación de información y la presenta-ción de material no secreto en formatos que facilitan su reutilización e innovación.

Sociedad civil Además de una mayor transparencia y accesibili-dad a los servicios gubernamentales, la sociedad civil puede benefi-ciarse potencialmente de la accesibilidad digital de los recursos públi-cos. Por ejemplo, a principios de 2011, en Gran Bretaña, el Home Office dio a conocer los datos que tenía el gobierno relativos a la inci-dencia del crimen en forma de «mapa del crimen» de libre disposi-ción, que permitía a cualquiera buscar los detalles de la delincuencia

«Queremos que el gobierno sea más ágil, más transparente, más abierto

y más responsable. Es el tipo de transformación de la que este gobierno

quiere formar parte.»davidcameron,2011

001-222 50 ideas digital.indd 154 22/02/2012 16:12:28

155 e-gobierno

en un mapa interactivo de Inglaterra y Gales. Con más de 18 millo-nes de visitas en sus primeras horas en la red, el servicio se consideró un éxito enorme, aunque también se dice que ha alimentado los mie-dos a las denuncias incorrectas, al daño potencial a los precios de la vivienda y a la delincuencia en general, lo que ilustra la doble cara de los datos.

Otros ejemplos de e-Gobierno social incluyen la posibilidad de eva-luar la calidad de los servicios del gobierno, de expresar preferencias, de presentar peticiones y de votar sobre temas locales, aunque el pro-pio volumen de material generado por tales estructuras puede crear grandes cargas administrativas. Como siempre con la información, la utilidad depende de la capacidad de analizar y combinar, más que de simplemente recoger datos..., algo que convierte los ánimos de un ter-cer ecosistema de creadores que trabajan con datos del gobierno en parte esencial del futuro del e-Gobierno.

La idea en síntesis:la tecnología es unaherramienta políticacada vez más esencial

Un lado potencialmente más oscuro del e-Gobierno es el uso de técnicas de vigilancia por parte de los gobiernos. La vigilancia del estado puede ir desde las cámaras para controlar el tráfico hasta el CCTV (Circuito Cerrado de Televisión), las escuchas electrónicas y los controles de identidad, con el uso potencial de la identificación biométrica (a través de una base de datos de rasgos como las huellas dactilares y los escáneres de retina). Esta vigilancia suele justificarse por motivos de seguridad y por la prevención de delitos como el vandalismo, el crimen motorizado y el terrorismo. Las campañas por las libertades individuales han expresado

una preocupación creciente por el grado de acumulación de poder en algunos países de un «estado vigilante», además de cuestionar la efectividad de sus técnicas. La controversia también rodea al derecho de los gobiernos de acceder o analizar el tráfico de Internet, siendo los ISP cada vez más responsables a través de legislaciones para controlar el tráfico de sus usuarios en actividades como la violación del copyright mediante la compartición de archivos, además de estar cada vez más obligados por ley a entregar los historiales de e-mail y de datos telefónicos relacionados con investigaciones policiales.

Vigilancia del estado

001-222 50 ideas digital.indd 155 22/02/2012 16:12:29

156 tendenciastransformadoras

El crowdsourcing tiene sus orígenes en el esfuerzo colectivo de los pio-neros de Internet, en especial en el movimiento de programas de có-digo abierto que empezó en 1983 con un esfuerzo de colaboración masiva llamado Proyecto GNU. Este proyecto se propuso, combinan-do los esfuerzos de la comunidad académica, desarrollar un conjunto de programas informáticos gratuitos y de libre disposición que permi-tiera a todo el mundo que quisiera utilizar un sistema informático sin la necesidad de comprar programas.*

El proyecto GNU, una propuesta utópica, fue lanzado con un manifies-to redactado por el programador y activista estadounidense Richard Stallman. En 1992, nueve años después de su primer anuncio, el pro-yecto ofreció por primera vez su primer sistema operativo completo, lla-mado Linux. Hoy se utilizan versiones del sistema Linux más o menos en un cuarto de los ordenadores de servidor de todo el mundo —y en más del 90 por 100 de los superordenadores del mundo—, mientras que otros sistemas de código abierto, como el programa Apache para servi-dores y el navegador de red Firefox, dominan sus mercados.

La colaboración gratuita y movida por la pasión había demostrado formar parte de la esencia de la cultura digital: una verdad básica a la

* Crowdsourcing, aunque suele utilizarse en inglés, podría traducirse como «externalización masi-va». Proviene de los términos crowd («muchedumbre») y outsourcing («externalizar»), y sugiere el hecho de confiar a una masa de terceros la resolución de un problema o un proyecto. (N. de la t.)

38  Crowdsourcing *

Históricamente, las tareas prácticas e intelectuales difíciles han tendido a resolverlas pequeños grupos de expertos. Pero la interconexión de cientos de millones de personas a través de Internet ha propiciado cada vez más el enfoque contrario: presentar un problema como convocatoria abierta al mundo digital y dejar que la «masa» (crowd) digital —ese grupo de gente indefinido, amorfo y voluntario que decide perseguir un interés— intente hallar una solución. Una idea tan sencilla como para que resulte evidente, el crowdsourcing es también uno de los aspectos autodefinidores y más potentes de la cultura digital.

cronología1992 1997 2001 2009Aparición del Linux Lanzamiento del proyecto SETI@home Lanzamiento de la Wikipedia Lanzamiento del Kickstarter

001-222 50 ideas digital.indd 156 22/02/2012 16:12:29

157 crowdsourcing

espera de una definición formal. La colaboración masiva es, ciertamen-te, una idea mucho más antigua que cualquier tecnología digital: desde los «buzones de sugerencias» físi-cos hasta los proyectos de investi-gación que pedían a miembros del público que mandaran sus opinio-nes, preguntas o sugerencias. Pero lo crucial de los medios digitales es que incrementaron exponencialmente la escala potencial, la facilidad y la velocidad de este tipo de colabo-raciones. Gracias a Internet y a la continua evolución de las tecno-logías de la red con el movimiento Web 2.0, la interacción masiva es hoy, sencillamente, una realidad de la vida cotidiana global.

El término crowdsourcing Una de las primeras personas que utilizó la palabra crowdsourcing fue Jeff Howe, que combinó las pala-bras crowd y outsourcing en un artí-culo de 2006 para la revista Wired. Howe pensaba que empezaba a ser posible encargar trabajo no a expertos selectos, sino a voluntarios au-toseleccionados de entre la inmensidad del mundo digital.

Uno de los primeros ejemplos de este proceso es el programa SETI (Search for Extra-Terrestrial Intelligence) de Berkeley, California, que se basaba en el análisis de enormes cantidades de datos de radiote-lescopios en busca de pautas. El análisis fue una tarea mucho más gran-de de lo que hasta las supercomputadoras eran capaces de asumir. Y así, en 1990 se lanzó el proyecto llamado SETI@home, que pedía a gente de todo el mundo que prestara la potencia de su ordenador para el trabajo de análisis, descargando un sencillo programa que funciona-ba como salvapantallas... y analizaba datos y transmitía los resultados a Berkeley siempre que el ordenador estaba en desuso durante un rato.

cronología1992 1997 2001 2009Aparición del Linux Lanzamiento del proyecto SETI@home Lanzamiento de la Wikipedia Lanzamiento del Kickstarter

Como la mayoría de ideas digitales, acceder a la sabiduría de las masas es algo potente, pero no tiene por qué ser algo inherentemente positivo para la sociedad. En China, por ejemplo, el gobierno es aficionado a utilizar «buscadores de carne y hueso» —es decir, miles de voluntarios— para extender su propaganda y sus esfuerzos de censura. Paralelamente, los esfuerzos del estado por censurar los contenidos de Internet en países como Arabia Saudí se apoyan en iniciativas de crowdsourcing, con grupos de ciudadanos de orientación conservadora que rastrean la red y denuncian cualquier contenido que consideren perjudicial para el estado o que crean contrario a sus políticas sobre lo que debe estar o no a la disposición del ciudadano.

Censura de externalización masiva

001-222 50 ideas digital.indd 157 22/02/2012 16:12:29

158 tendenciastransformadoras

Al cabo de seis años, más de cinco millones de personas se habían descargado el programa. No les costaba nada en cuanto a tiempo, es-fuerzo o electricidad, pero el resultado fue miles de veces superior al de una sola supercomputadora.

¿Qué pueden hacer las masas? El programa SETI@home era un proyecto dirigido de manera central por una institución académica de élite. Pero estaban por llegar trabajos de colaboración mucho más ambiciosos y descentralizados. Entre los más famosos está el fundado en 2001, con el modesto objetivo de establecer en la red una enciclo-pedia gratuita del conocimiento humano que cualquiera pudiera utili-zar o corregir. Bautizada como Wikipedia, a finales de 2010 ya era responsable de más de 100 millones de horas de trabajo humano, y en el proceso se había convertido en la fuente general más exhaustiva de información... y de una calidad muchas veces superior a la prevista.

Las masas digitales, así, pueden desarrollar resultados impresionantes cuando se trata de aportar información. Uno de los desarrollos más recientes del movimiento crowdsourcing es la crowdfunding, también conocido como micromecenazgo, una idea personificada por la pági-na web Kickstarter, que se fundó en 2009 como medio para cualquiera que buscara financiación para iniciar un proyecto. Los voluntarios pue-den aportar el dinero que quieran para alcanzar la cifra apuntada, a cambio de una participación en el proyecto según lo defina su empren-dedor, a diferencia de una inversión o un acuerdo de capital convencio-nales. Ha habido proyectos que han salido adelante gracias a este méto-do, desde álbumes de música hasta compañías de juegos o películas con un presupuesto superior a 300.000 dólares.

La colaboración masiva es un fenómeno mucho más antiguo que la tecnología digital, pero la facilidad y la escala que aporta el crowdsourcing digital apunta también a cierto número de problemas. En general, los participantes en un proyecto de crowdsourcing no tienen contratos formales ni reciben pago alguno por su esfuerzo. La naturaleza abierta y anónima de muchos proyectos también los hace vulnerables a minorías muy motivadas que pueden

querer manipular los resultados o, sencillamente, estropear las cosas porque sí. Wikipedia, por ejemplo, sufre cada año decenas de miles de actos de «vandalismo», y hay miembros de su comunidad que pasan miles de horas corrigiéndolos. Luego está el simple hecho de que, como la masa no trabaja para nadie en particular, puede resultar difícil coordinar los esfuerzos o completar un proyecto abierto cuando no hay demasiados derechos ni responsabilidades en él.

¿Tienen derechos las masas?

001-222 50 ideas digital.indd 158 22/02/2012 16:12:29

159 crowdsourcing

Y esto es apenas un indicio de lo que la inteligencia humana es capaz de hacer en la red. Aprovechar el co-nocimiento colectivo y las capaci-dades de la red se ha convertido en una práctica cada vez más extendida entre las empresas, los artistas y los gobiernos. En 2009, el periódico The Guardian utilizó una red de más de 20.000 voluntarios para escudri-ñar las polémicas acusaciones de gastos de los parlamentarios británi-cos; en 2010, la Library of Congress utilizó el sitio de álbumes de fotos compartidos Flickr para llamar al público a identificar a los personajes que aparecían en una serie de fotos de la Guerra Civil.

¿Qué pueden hacer las masas? Jimmy Wales, cofundador de la Wikipedia, se opone al término crowdsourcing para describir lo que hace su sitio web, alegando que la idea olvida la cantidad de trabajo necesario para crear y mantener un sistema en el cual los usuarios pueden colaborar con buen fin. De manera más general, los esquemas de crowdsourcing se pueden tropezar con problemas de control de cali-dad, propiedad de los resultados, responsabilidad legal y simple facti-bilidad —la noción de que invitar a contribuir a un proyecto masivo virtual dará una solución ha llevado al desastre a muchas empresas, en parte debido a la dificultad de conseguir colaboración en tareas que la gente no está motivada para hacer.

Estas críticas salpican también la política y al activismo en general, donde se ha acuñado el término slacktivism (algo así como activismo «flojo», o «vago») para describir a aquellos que prefieren la facilidad de firmar peticiones masivas y apuntarse a grupos de Facebook a ac-ciones más significativas o arriesgadas. Como dicen los analistas de la «sabiduría de las masas», los muchos pueden demostrar ser más listos que los pocos... pero la propia historia la hacen más a menudo unos pocos muy motivados que un enorme comité.

La idea en síntesis:la facilidad de 

colaboración de las masas está 

cambiando el mundo

«Los esfuerzos de código abierto no se han limitado a igualar a los mejores esfuerzos de las grandes corporaciones mundiales; los han superado.»JeffHowe

001-222 50 ideas digital.indd 159 22/02/2012 16:12:29

160 tendenciastransformadoras

El hecho de simplemente poner algo a libre disposición para el uso o la reutilización de cualquiera —conocido como ceder al dominio pú-blico— no es garantía de que esta libertad seguirá existiendo. Alguien más puede intentar aprovecharse vendiendo una copia o modificán-dolo ligeramente y declarando ese nuevo producto como creación propia. El movimiento por la libre disposición de programas es un in-tento formal de evitarlo. Con este fin, hace un uso selectivo de la le-gislación de los derechos de autoría cediendo productos bajo varias licencias distintas, lo que legalmente limita las maneras de cómo pue-den usarse. Normalmente, estas licencias declaran explícitamente que todas las copias futuras, versiones modificadas o trabajos derivados han de ser también puestos a la libre disposición y cedidos bajo las mismas condiciones de autorización. Eso significa que se pueden em-prender acciones legales contra cualquiera que intente sacar prove-cho de un trabajo cedido bajo licencia gratuita, forzándolos ya sea a destruir su propia versión o a cederla públicamente bajo licencia gra-tuita. Programas libres es un movimiento en el sentido más flexible de la palabra, y abarca una amplia gama de permisos y enfoques, además de ofrecer distintos niveles de protección... y de representar distintos

39  Movimiento por la libre disposición  de programas

El movimiento por la libre disposición de programas (free software movement) está íntimamente relacionado tanto con las ideas que subyacen en el crowdsourcing como con muchos otros movimientos abiertos y de colaboración que han caracterizado Internet desde sus inicios. Su importancia no está simplemente en la idea de que el software u otros productos creativos han de ser gratuitos, sino en las maneras en que la comunidad online ha buscado formalizar y perpetuar los principios de uso libre, reutilización, adaptación y colaboración libres y a perpetuidad.

cronología1984 1989 2001 2004 2007Aparece el término shareware Primera Licencia Pública General de GNU Fundación de Creative

CommonsLawrence Lessig publica Free Culture

Se publica la última versión del GPL de GNU

001-222 50 ideas digital.indd 160 22/02/2012 16:12:29

161 movimientoporlalibredisposicióndeprogramas

puntos de vista sobre lo que puede ser un tema polémico de debate digital.

Copyleft La forma más antigua de li-cencia digital gratuita se llama copyleft, un juego con la palabra copyright. Su sím-bolo es una imagen de espejo del símbolo © del copyright, y aunque se utilizó por primera vez a mediados de la década de 1970, tal vez su formulación más famosa e influyente es la General Public License GNU (conocida a menudo como GPL). La GPL fue redactada por Richard Stallman para el desarrollo del sistema operativo Linux, un proceso descrito en el an-terior capítulo que culminó en 1992 con la cesión pública del primer sistema operativo informático mundial de utilización totalmente libre.

La última versión del GPL, la tercera, se terminó en 2007. La propia licencia está diseñada para que la utilice cualquiera y actualmente se aplica a más de la mitad de paquetes de programas libres del mundo, pero su formulación no se puede modificar en absoluto. Su objetivo

«Cuando hablamos de programas libres, nos referimos a la libertad, no al precio.»FreesoftwareFoundation

cronología1984 1989 2001 2004 2007Aparece el término shareware Primera Licencia Pública General de GNU Fundación de Creative

CommonsLawrence Lessig publica Free Culture

Se publica la última versión del GPL de GNU

El concepto «código abierto» se utiliza a menudo combinado con «libre» cuando se aplica a software, aunque describe una idea más amplia y borrosa que la de simplemente crear una cesión libre para la distribución de programas. El término se refería originalmente al «código fuente» de los programas —el código básico de un programa que indica exactamente lo que ha hecho un programador para crearlo—, que en los productos comerciales no suele revelarse nunca. Abrir el código fuente permite a otros replicar y crear más programas. Para algunos, la etiqueta «código abierto» se ha ampliado desde esta raíz para describir una

filosofía más amplia de abrir el funcionamiento de cualquier proceso al escrutinio y la colaboración públicos, desde los procesos políticos hasta los artísticos o hasta el activismo. Los materiales de código abierto no están necesariamente sujetos a los términos de una cesión específica. Sin embargo, lo esencial de este enfoque es un proceso abierto y colaborador de desarrollo cuyos elementos clave están siempre abiertos al escrutinio tanto del público como de los expertos... una tendencia que gana adeptos en muchos campos, desde la ciencia médica hasta el funcionamiento de las normativas gubernamentales.

Código abierto

001-222 50 ideas digital.indd 161 22/02/2012 16:12:29

162 tendenciastransformadoras

declarado es asegurarse de que «garantiza tu libertad de compartir y cambiar todas las versiones de un programa», un principio que Ri-chard Stallman describe como «idealismo pragmático» en su resisten-cia a permitir cualquier reutilización apropiada de los programas cedi-dos mediante copyleft, ni siquiera si eso ofrece la tentadora posibilidad de que estos lleguen a un público enorme.

Hoy día hay muchos tipos de licencias de copyleft disponibles para dis-tintos tipos de productos, desde las cesiones de programas especiales hasta las de documentación. El copyleft no defiende en sí mismo que las obras artísticas y creativas tengan que ser libres, pero recomienda la aplicación de una Licencia Artística Libre para aquellos que deseen que su obra creativa sea distribuida libremente a perpetuidad.

Creative Commons El copyleft no es la única forma de cesión utilizada para definir los términos en que una obra se puede distribuir gratuitamente. Las más conocidas y más influyentes de otras cesiones o licencias similares son las de la organización Creative Commons, funda-da en 2001 por el activista y académico legal estadounidense Lawrence

Lessig, que ayudó a acuñar la idea de «cultura libre» en su libro de 2004 titulado, precisamente, Free Cultu-re. Hoy, la organización Creative Commons está encabezada por el activista japonés Joichi Ito.

«Cultura libre» se opone a las res-trictivas leyes del copyright a fa-vor del uso de los medios de comu-nicación —y de los digitales por encima de todo— para distribuir y editar obras libremente. El movi-miento ha atraído las críticas de aquellos que alegan que eso perju-dica la capacidad de los individuos creativos tanto de aprovechar como de proteger la integridad de sus obras. Sus defensores, incluido Lessig, adu-cen que una distribución gratuita convenientemente cedida poten-cia la creatividad y no puede seña-larse como culpable del declive de muchos viejos modelos de negocio mediáticos.

Las licencias de Creative Commons son muy utilizadas en conexión con

Otra especie importante dentro del software libre de la historia digital es el shareware, que recoge una noción muy distinta de libertad del copyleft o el material cedido bajo licencia Creative Commons. El shareware son programas con propietario que han sido cedidos en versión de prueba gratuita, ya sea con atributos limitados o por un período de tiempo limitado. Utilizado por primera vez en 1984, el término describía útilmente la manera en que estos programas libres se compartían por Internet y se convertían en un importante canal nuevo de distribución y marketing para las compañías de software. Algunos de los primeros videojuegos y sitios web de más éxito prosperaron gracias en parte a su distribución como shareware, incluido el videojuego de 1993 Doom. El shareware permitía a las empresas más pequeñas llegar a un amplio público potencial, pero no hay que confundirlo con el software gratuito o de código abierto, que inherentemente no tiene aplicación comercial.

Shareware

001-222 50 ideas digital.indd 162 22/02/2012 16:12:29

163 movimientoporlalibredisposicióndeprogramas

productos digitales creativos de cualquier tipo, desde fotos hasta pala-bras escritas... aunque no programas, que generalmente gestiona mejor copyleft. Todas sus licencias permiten el derecho básico de la copia y distribución gratuita pero con cuatro calificaciones potenciales asocia-das. Una licencia de «atribución» estipula sencillamente que una obra puede mostrarse, copiarse, modificarse y distribuirse siempre y cuando se mencione a su creador. Una licencia «no comercial» añade la res-tricción de que una obra solo puede utilizarse sin afán de lucro, mien-tras que una licencia de «obra no derivativa» estipula que esta obra solo se puede reproducir de manera exacta y no modificarse en mane-ra alguna. Finalmente, la licencia «compartir igual» insiste en que la obra solo se puede reproducir con una licencia idéntica asociada a ella. Estas condiciones se aplican normalmente en una de seis combinacio-nes, todas las cuales incluyen la atribución como estándar y que no contradice la aplicación de la ley básica del copyright.

Aplicaciones y controversia Copyleft y Creative Commons son las más utilizadas, pero hay docenas de licencias gratuitas en uso por todo el mundo, desde las que apuntan a conjuntos específicos de progra-mas hasta las que quieren imponer más restricciones en el uso... o me-nos. Millones de obras y páginas web usan estas licencias, desde las obras de autores activistas como Cory Doctorow y Lawrence Lessig hasta álbu-mes, películas, arte, fotografías y programas. La Wikipedia entera es tal vez la más famosa que está bajo una licencia de Creative Commons.

Estas propuestas han recibido críticas, sobre todo de aquellos que sien-ten que los importantes y muy batallados principios sagrados del co-pyright están siendo menoscabados por mucha de la actividad online, y que los abusos de copyright se dignifican con demasiada facilidad por los argumentos de los defensores más radicales de la cultura libre.

La idea en síntesis:las obras 

genuinamente libres son libres para siempre y bajo cualquier forma

«La consecuencia no voluntaria de toda esta democratización [...] es un “aplanamiento”

cultural. No más Hitchcocks, ni Bonos, ni Sebalds. Tan solo el ruido plano de la opinión.»

andrewKeen

001-222 50 ideas digital.indd 163 22/02/2012 16:12:29

164 tendenciastransformadoras

Prácticamente desde los inicios de Internet resultó evidente que los medios escritos —libros, revistas, periódicos— empezarían a aparecer en formatos digitales, y que las nuevas formas de escritura digital, a su vez, les supondrían un desafío. Pero a medida que fue creciendo la potencia de los ordenadores y la velocidad de las conexiones digitales, también fue siendo cada vez más fácil transmitir por la red archivos de vídeo y audio más grandes, en vez de tener que almacenarlos en so-portes físicos como CD y DVD y luego distribuirlos.

Este proceso fue de la mano con los avances graduales de los formatos de archivos digitales. Julio de 1994 fue una fecha importante que marcó la introducción oficial de un formato llamado MP3, capaz de codificar música eficientemente en alta calidad en una cantidad relativamente pequeña de datos. Al año siguiente aparecieron programas capaces de reproducir archivos de MP3 en tiempo real en un ordenador.

Los archivos MP3 eran lo bastante pequeños para ser almacenados, descargados y cargados fácilmente a través del Internet inicial, y pronto cientos de miles de archivos se estaban compartiendo virtual-mente, a menudo a través de sistemas conocidos como redes peer-to-peer, lo que facilitaba que las personas pudieran localizar y compartir

40  Distribución digital

Durante los primeros años de la tecnología digital, el almacenamiento de datos era dificultoso y caro, y transferir información entre sistemas distintos significaba copiar información en discos y mover estos físicamente entre aparatos. Hoy, Internet y la creciente interconexión de todos los dispositivos digitales significa que la información se puede distribuir ampliamente sin necesidad de disquetes. Pero lo que no se podía haber previsto es simplemente lo profundas y universales que están demostrando ser sus consecuencias.

cronología1994 1999 2003 2007 2011Invención del formato MP3 Fundación de Napster Lanzamiento de la tienda

iTunesAmazon lanza el Kindle Lanzamiento del primer periódico

mundial solo para iPad

001-222 50 ideas digital.indd 164 22/02/2012 16:12:29

165 distribucióndigital

archivos entre sus colecciones personales (véase el capítulo 15 sobre compartición de archivos). Redes como Napster (fundada en 1999, cerrada en 2001) ayudaron a transfor-mar para siempre el aspecto del negocio de la música, además de anticipar problemas de violación del copyright que siguen do-minando muchas discusiones sobre los me-dios digitales.

Aparece iTunes Para cuando Napster cerró, ya se había lanzado el que se convertiría en uno de los canales aprobados por el sector más importante de distribución digital: el servicio iTunes de Apple, que empezó en enero de 2001 como aplicación que permitía a los usuarios de Mac reproducir y gestionar la música digital en sus ordenadores.

Con el lanzamiento de la tienda iTunes en abril de 2003 y el lanza-miento de iTunes ese año también para los usuarios de ordenadores con Windows, además de los Macs, para los usuarios empezaba a ser posible pagar pequeñas cantidades para comprar canciones individua-les en la red y descargarlas directamente a sus ordenadores y MP3 por-tátiles. Era un terreno en el que Apple ya tenía una presencia consi-

«Los libros no están más amenazados por Kindle de lo que están las escaleras por los ascensores.»stephenFry

cronología1994 1999 2003 2007 2011Invención del formato MP3 Fundación de Napster Lanzamiento de la tienda

iTunesAmazon lanza el Kindle Lanzamiento del primer periódico

mundial solo para iPad

La industria de los periódicos y revistas ha sido duramente golpeada por la transición a las tecnologías digitales, y cada vez hay más gente que cree que su supervivencia futura depende de encontrar modelos viables de negocio virtual, algo que las publicaciones han intentado con resultados variables. El rápido crecimiento de los ordenadores tablet, desde el lanzamiento del iPad de Apple en 2010, ha alimentado las esperanzas de que las aplicaciones de estos aparatos puedan resultar un

sustituto rentable de los periódicos en papel. En febrero de 2011, Rupert Murdoch lanzó The Daily, el primer periódico mundial que se puso en circulación solamente vía la adquisición por iPad. Sin una edición impresa ni ningún tipo de presencia en la web, The Daily insinúa lo que será un mundo sin papel para los periódicos y las revistas, en buena parte como el Kindle de Amazon y otros lectores electrónicos ya han empezado a demostrar la posibilidad de un mundo sin libros impresos.

¿Un mundo sin papel?

001-222 50 ideas digital.indd 165 22/02/2012 16:12:29

166 tendenciastransformadoras

derable gracias a la introducción en 2001 del iPod, uno de los primeros MP3 portátiles comercialmente exitosos.

La tienda iTunes se convirtió pronto en un ejemplo icónico de la ca-pacidad de la distribución digital de desbaratar los modelos de nego-cio tradicionales a través de otros modelos totalmente oficiales y lega-les. En siete años, iTunes se ha hecho responsable de casi tres cuartas partes de todas las ventas de música digital del mundo, convirtiéndo-se en el mayor vendedor de música del planeta. En febrero de 2010, Apple anunció que más de 10.000 millones de canciones habían sido adquiridas a través de su tienda desde su lanzamiento... y que más de 55.000 episodios de TV y 8.500 películas también podían ser adquiri-dos a través de aquella virtualmente.

Por todos los medios El crecimiento de iTunes ha sido tan solo una parte de una transición global clave a lo largo de la última década, por la cual la distribución digital ha pasado de ser una novedad a con-vertirse en la actualidad en el único método de distribución de un

número creciente de productos. Los libros digitales son tal vez el ejemplo más sencillo de ello. Ac-tualmente cada vez hay más li-bros que existen solo en formato electrónico. El Kindle de Ama-zon, aparecido en 2007, es solo uno de una cada vez más amplia serie de aparatos de lectura elec-trónica disponibles hoy en el mercado; pero su impecable in-tegración con la mayor librería del mundo ofrece un guiño de lo profundamente que la distribu-ción digital podría alterar los mo-delos existentes de publicación... como también lo posibilita el hecho de que Amazon ofrece ahora a los autores la oportuni-dad de publicar directamente en Kindle, sin pasar ni por un editor tradicional ni acercarse para nada a la impresión en papel.

Además, Kindle no es solo un instrumento físico para leer tex-tos electrónicos; es también una plataforma de software para leer

En muchos casos, comprar la versión digital de un producto no nos garantiza la propiedad del mismo en el mismo sentido que adquirir su versión física. Es imposible prestar o regalar un archivo de la misma manera que podemos hacerlo con un objeto físico, y puede resultar casi igual de difícil tener el archivo en nuestra posesión más que simplemente tener permiso para acceder al mismo a través de un servicio concreto. Esta transición de la compra y posesión de un medio en un soporte físico, al acceso a un medio como usuario de un servicio, es potente y muy cómoda, pero también restrictiva. Teóricamente, un servicio puede ser retirado en cualquier momento o dejar de operar por motivos empresariales; un acceso de alta calidad a Internet no siempre es posible; y la ausencia de propiedad personal hace que los consumidores sean potencialmente vulnerables a la censura, a la piratería o a las acusaciones de mal uso. Eso no es cierto para todas las formas de distribución digital, pero ha provocado un apasionado debate sobre los derechos y las responsabilidades asociadas al consumo digital.

¿El final de la propiedad?

001-222 50 ideas digital.indd 166 22/02/2012 16:12:29

167 distribucióndigital

textos digitales a través de varios aparatos distintos. Lo único que se precisa es tener una cuenta en Amazon... igual que, en el caso de Apple, una cuenta iTunes permite a los usuarios descargar y consumir medios digitales para toda una gama de aparatos.

La distribución digital se está convirtiendo en el método habitual de compra también de muchos programas, y la creciente velocidad gracias a una banda cada vez más ancha ha retirado muchos de los obstáculos que antes hacían más fácil la compra de un disco físico con los archivos grabados que pa-sarse muchas horas descargándolos. A través de los ordenadores, la plata-forma de distribución digital Steam es hoy líder del mercado de los video-juegos, mientras que los gigantes del software desde Microsoft hasta Adobe ofrecen versiones descargables de todos sus productos principales.

Medios sin fin Tal vez la mayor ventaja de la distribución digi-tal, aparte de la comodidad, es su falta de finalidad: siempre es posible descargar una nueva actualización o una nueva copia. Además, las plataformas digitales ofrecen la oportunidad de usar un producto no aisladamente, sino como miembro de una comunidad: algo especial-mente importante con el ocio, cuando los juegos en streaming y des-cargados tienden a ofrecer a los usuarios la oportunidad de compartir comentarios, anotar y comparar resultados virtualmente, y jugar o mi-rar junto a otros jugadores.

Esta orientación también puede suponer una desventaja para aquellos que prefieren poseer productos acabados, propios, diseñados para usarse aisladamente y no dependientes de una conexión de banda ancha para algunas funciones, ni siquiera, en el caso de los medios en streaming, una banda ancha en activo para todos sus usos. Los temas de control de calidad, copyright y propiedad complican también las relaciones de muchos usuarios con muchos productos solo digitales, y hasta hay quien alega que las plataformas de distribución abiertas a todos acabarán re-presentando una cultura capaz de ofrecer una customización y flexibili-dad sin precedentes, pero también una menor calidad.

La idea en síntesis:a medida que la  distribución se 

transforma, también lo hace el contenido

«El mundo está cada vez más customizado, alterado según las especificaciones individuales.»dondelillo

001-222 50 ideas digital.indd 167 22/02/2012 16:12:29

168 tendenciastransformadoras

En vez de ser procesado por una máquina individual, la informática en la nube ocurre desde una serie de servidores distintos distribuidos por todo Internet. Ni los usuarios ni los proveedores del servicio han de saber necesariamente la ubicación física exacta de las máquinas en las que se procesan los datos. La propia frase «informática en la nube», cloud computing en inglés, se utilizó por primera vez en 1997 para refe-rirse específicamente a la idea de un servicio informático remoto que no ocurre en una ubicación única y conocida —como era el caso des-de los inicios de la red con los ordenadores servidor que alojaban si-tios web concretos—, sino como algo distribuido libremente por una «nube» de la que los propios usuarios tienen poco conocimiento.

¿Por qué usar la nube? La informática en la nube es una idea sencilla con aplicaciones extremamente amplias, pero las razones esenciales por las que muchos usuarios están acudiendo cada vez más a ella son bastante claras. Se aplican igualmente tanto a particulares como a empresas, aunque es en estas últimas donde se están empezan-

41  Informática en la nube

Durante los inicios de la informática, los ordenadores eran máquinas enormes y muy caras y se suponía que una pequeña cantidad de ellas sería utilizada por muchas personas. A medida que los ordenadores se han ido haciendo más pequeños y más baratos, hemos ido aprendiendo a dar por sentado que todo el mundo tiene acceso a su propio ordenador. Sin embargo, con el crecimiento de Internet, una versión de la vieja idea ha vuelto a tomar impulso: hay muchas ventajas en el hecho de hacer tareas y almacenar datos no en el dispositivo que uno posee físicamente, sino en la «nube», un potente sistema remoto al que simplemente nos conectamos allá donde nos encontremos del mundo.

cronología1997 1999 2002 2006 2007 2010Se acuña el término «informática en la nube»

Salesforce.com ofrece el primer servicio de aplicaciones web

Lanzamiento de Amazon Web Services

Lanzamiento de Elastic Compute Cloud de Amazon

Lanzamiento total de Google Docs

Microsoft lanza Web Apps para Office

001-222 50 ideas digital.indd 168 22/02/2012 16:12:30

169 informáticaenlanube

do a sentir los mayores cambios. Los servicios de nube ofrecen movili-dad: si disponemos de un ordenador y de una conexión a Internet, nos podemos conectar a un servicio, ya sea el e-mail y los documentos personales o todo el aparato entero de gestión y bases de datos de una empresa. También son servicios escalables: las empresas que ofrecen servicios de nube tienden a operar con miles o decenas de miles de ordenadores, lo que significa que por muy lejos o rápido que crezcan nuestras necesidades, serán fácilmente atendidas.

Pero tal vez lo más importante de todo sean la rapidez y los costes. Los sistemas de nube tienen un mantenimiento externo. De modo que no hay prácticamente costes asociados a la actualización de los datos, el establecimiento de redes y el software. Además, no hay costes de ca-pital asociados a la compra de maquinaria física: sencillamente se paga por el nivel de servicio que se requiere, que puede ser contabili-

cronología1997 1999 2002 2006 2007 2010Se acuña el término «informática en la nube»

Salesforce.com ofrece el primer servicio de aplicaciones web

Lanzamiento de Amazon Web Services

Lanzamiento de Elastic Compute Cloud de Amazon

Lanzamiento total de Google Docs

Microsoft lanza Web Apps para Office

El mayor proveedor mundial del sistema de informática en la nube es Amazon, a través de su plataforma de servicios web. Lanzado en 2002, el servicio es hoy un servicio de nube típico en cuanto a que ofrece una amplia gama de opciones según las necesidades, que van desde el simple almacenamiento online o la capacidad de mandar una gran cantidad de e-mails, hasta albergar sitios web muy populares u ofrecer pura potencia informática para aquellos que hacen experimentos o procesos que requieren mucho espacio informático, como la animación tridimensional detallada, por ejemplo. Pero la innovación esencial de Amazon llegó en 2006, cuando empezó a ofrecer un servicio llamado Elastic Compute Cloud (EC2), que permitía a empresas y particulares alquilar toda

la potencia informática que precisaran para hacer funcionar aplicaciones totalmente funcionales. La economía de escala convierte este servicio en un método informático extremamente eficiente y potente. El coste de contratar tiempo en el servicio informático más potente de Amazon a finales de 2010 era, por ejemplo, de poco más de 2 $ por hora, sin gastos de hardware ni otros compromisos requeridos. La potencia de procesado de este servicio es parecida a la de las supercomputadoras más rápidas del mundo a finales de 1990, acercándose teóricamente a un teraflop*... es decir, alrededor de un billón de operaciones flotantes por segundo.

* 1 teraflop equivale a 1012 operaciones por se-gundo.

Amazon Web Services

001-222 50 ideas digital.indd 169 22/02/2012 16:12:30

170 tendenciastransformadoras

zado por horas. Por este motivo, el modelo de negocio de la informáti-ca en la nube se conoce a veces como «informática de servicio», por-que convierte la informática en un servicio doméstico más, como el gas o la electricidad.

Nubes personales Mientras que los particulares raramente men-cionarán el ahorro de costes como ventaja de la nube, hay cada vez una mayor cantidad y complejidad de información personal que se almace-na en la red a través de servicios que van desde Google hasta Facebook.

El enfoque de Google es típico, ya que cada vez más ofrece a los usua-rios de sus servicios la oportunidad de colocar partes de sus vidas digi-tales en su nube virtual. El programa de documentos de Google alma-cena hojas de cálculo y documentos de texto en la red y permite que sean editados desde cualquier lugar del mundo a través de un paquete de procesado de textos basado en la web; su servicio de agenda se in-tegra con otras aplicaciones virtuales; su servicio de imágenes, Picasa, ofrece almacenamiento y gestión virtual de fotos, como también lo hace su todavía más popular sitio para compartir fotos, Flickr.

De manera parecida, las redes sociales como Facebook y MySpace cada vez permiten más que el almacenamiento de imágenes, palabras y mensajes de la vida de las personas sea una cuenta virtual accesible desde cualquier lugar en el mundo, en vez de ser el hard drive de un aparato que poseen físicamente. De hecho, las redes sociales —que ofrecen una experiencia cada vez más de todo-en-uno virtual— pue-den convertirse en un factor instrumental a la hora de llevar a toda una generación de usuarios de Internet hacia una mentalidad de nube.

De cara al futuro Hoy día proliferan los potentes servicios de informática remota, junto con conjuntos de servicios que animan a las empresas a externalizarlo todo, desde el correo electrónico hasta el almacenamiento de datos. Tanto las plataformas de hardware como los servicios de software se pueden ofrecer de manera remota, mien-tras que la integración de servicios basados en la nube en otro soft-ware es cada vez más habitual, como en el caso del paquete Office de Microsoft, que en 2010 introdujo funciones de red en todos sus servi-cios principales.

«Por vez primera, los creadores de todo el mundo tienen acceso a una potencia

informática ilimitada. Con un navegador y una conexión a Internet, cualquiera

puede crear aplicaciones y utilizarlas.»marcbenioff

001-222 50 ideas digital.indd 170 22/02/2012 16:12:30

171 informáticaenlanube

Una pregunta para el futuro es el equilibrio: ¿qué parte de un negocio o servicio se basará en la red, y cuánta de su tecnología seguirá siendo local? Para los defensores del software libre y de código abierto, las tecnologías basadas en la red dejan una cantidad peligrosa de poder en manos de grandes corporaciones que gestionan los sistemas de nube, y potencialmente limitan el tipo de innovaciones y colabora-ciones que se han derivado de un Internet abierto basado en muchos miles de servicios y enfoques distintos. Mientras, se siguen estudiando las mejoras en la funcionalidad de la informática en la nube por todo el mundo, con el acceso desde los dispositivos móviles, una mayor flexibilidad y una seguridad mejorada como los mayores puntos de preocupación.

La idea en síntesis:la potencia 

informática se está convirtiendo en un servicio universal

La informática en la nube no está exenta de críticos, muchos de los cuales mencionan las implicaciones de seguridad del hecho de que particulares y empresas almacenen cada vez más datos de manera remota en aparatos que no poseen físicamente. Los proveedores de nubes alegan que los datos están más protegidos y copiados con mayor seguridad en un sistema de nube que en cualquier otro lugar. Pero sigue habiendo preocupaciones legales, en especial sobre que las empresas de nube pudieran ser obligadas a entregar datos en circunstancias que no serían aplicables si los datos estuvieran almacenados en dispositivos de propiedad personal.

Otros problemas incluyen la dificultad de customizar los sistemas de nube, en comparación con los programas locales; las exigencias técnicas y logísticas de cambiar a nuevos modelos de negocio y la posibilidad de que haya interrupciones en la conectividad. Parece poco probable que ninguno de estos factores tenga el peso suficiente para detener el avance de la nube durante demasiado tiempo; algo que a la larga podría significar una acumulación de poder sin precedentes en manos de una serie relativamente pequeña de empresas, que poseen de hecho y gestionan los programas que permiten funcionar a la mayoría del resto de empresas.

Limitaciones de la nube

001-222 50 ideas digital.indd 171 22/02/2012 16:12:30

172 tendenciastransformadoras

La idea del contagio vírico a través de los ordenadores era inicialmente negativa: fragmentos de software maligno se diseñaban para engañar a los usuarios informáticos y extenderse automáticamente de un aparato a otro, de manera muy parecida a las infecciones biológicas. Tales pro-gramas siguen siendo un gran problema para la informática moderna, pero la idea del contagio vírico ha pasado a aplicarse cada vez más a un proceso cultural activo más positivo, donde fragmentos de cultura im-pactantes o divertidos se detectan y se distribuyen por la red por un número de personas que crece rápidamente.

Este es un proceso que tiene mucho que ver con la noción de los memes del científico Richard Daw-kins: ideas que se comportan dentro de la sociedad humana de manera parecida a los genes dentro del cuerpo, replicando efectivamente copias de ellas mismas gracias a su contagio de una persona a

otra. Internet ha facilitado muchísimo este proceso. Desde una subcul-tura de los primeros tablones de anuncios, los memes han evoluciona-do hasta el más generalista de los fenómenos digitales y una zona auto-perpetuada de autorreferencia barroca que actualmente se apropia en cualquier contexto, desde la publicidad hasta el arte conceptual.

Memes anteriores a la red Antes de que existiera la World Wide Web, ciertas frases se hicieron famosas en los inicios de Internet, una de las cuales es considerada por algunos como el primer meme de Internet: se trata de «Garbage In: Garbage Out»* —a menudo abrevia-

* La traducción sería «Basura dentro: basura fuera». (N. de la t.)

42  Hacerse viralUn virus es una forma primitiva de vida capaz de producir cantidades enormes de copias de sí mismo en poco tiempo: algo que lo ha convertido en la metáfora perfecta de la manera en que las ideas, las palabras, los sonidos y las imágenes se pueden reproducir en el mundo digital, donde el coste de reproducción es casi nulo y el resto del mundo está solo a un clic de la infección.

«Todas vuestras bases nos

pertenecen.»memeZeroWing,1991

cronología1976 1982 1996 2004Richard Dawkins acuña la idea de los memes Uso del primer emoticono Aparición de los primeros memes

en la redSe acuña el término de marketing viral «usuarios alfa»

001-222 50 ideas digital.indd 172 22/02/2012 16:12:30

173 Hacerseviral

do con el acrónimo GIGO—, que se atribuye tanto al programador y periodista Wilf Hey como a uno de los primeros programadores de IBM, George Fuechsel. Acuñado para subrayar el hecho de que el re-sultado de un ordenador es solo tan bueno como la calidad de lo que se introduce en él, GIGO se convirtió en una especie de lema extra-oficial de los primeros programadores.

Otro aspirante a primer meme digital podría ser el primer emoticono —el uso de la puntuación para retratar una cara humana—, que es el caso de :–); se remonta a más o menos 1982 y se ha repetido incansa-blemente desde entonces. Uno de los pocos memes confirmados que han existido en Usenet —un sistema global de discusión de Internet lanzado por primera vez en 1980— se remonta a 1991, cuando una discusión sobre estilos de artes marciales llevó a un usuario a inven-tarse una «antigua arte marcial celta llamada Greenoch» ficticia, a partir de la cual la palabra Greenoch adquirió una fama casi instantá-

cronología1976 1982 1996 2004Richard Dawkins acuña la idea de los memes Uso del primer emoticono Aparición de los primeros memes

en la redSe acuña el término de marketing viral «usuarios alfa»

De todos los fenómenos virales impulsados por Internet, pocos son más deliciosamente raros que el rickrolling. El principio es lo bastante simple: en una situación virtual, alguien finge estar compartiendo un enlace útil con una fuente relevante, pero su enlace lleva a cualquier víctima inocente a abrir un vídeo del hit de 1987 de Ricky Astley «Never Gonna Give You Up». Esta extraña práctica empezó, como muchos otros memes, en 2007 en la infame página web de imágenes 4chan como variante de un meme anterior con una gamberrada similar llamada duckrolling. En 2008, el fenómeno se había extendido por toda la red, donde obtuvo un impulso impactante, llevándose a decenas de millones de víctimas y culminando en noviembre de 2008 con el mismísimo

Astley haciendo un rickroll sorpresa en el desfile de Thanksgiving de Macy’s en Nueva York. El rickrolling, una combinación de chorrada con la broma típica de colegio, es un ejemplo de la cultura viral, no solo por su manera de extenderse sino por las incontables variaciones que sigue exhibiendo, desde las cuidadosas reelaboraciones de los discursos de Barack Obama que lo hacen aparecer como si cantara la letra de una canción, hasta el movimiento online masivo que en 2008 premió a Astley como la actuación más votada de la MTV de todos los tiempos. No tiene ningún sentido, ni tiene por qué tenerlo, más allá del impulso de un fenómeno alimentado no tanto por la creencia colectiva, como por el deleite de la colectividad con lo absurdo.

Rickrolling

001-222 50 ideas digital.indd 173 22/02/2012 16:12:30

174 tendenciastransformadoras

nea y de paso se ganó un lugar en la historia de Internet como ejem-plo de alegación absurda.

Vitalidad y la red Casi todos los modernos memes digitales da-tan de después del lanzamiento de la web. La web también marcó la llegada de lo que pronto demostraría ser una red lo bastante amplia de usuarios para la extensión realmente viral de enlaces, ideas, imágenes y palabras... siendo el criterio principal de los fenómenos víricos su naturaleza espontánea y descentralizada.

Los fenómenos virales digitales han tendido a ser cosas que provocan una respuesta emocional rápida y contundente en el público: indigna-ción, placer, diversión, pero normalmente algo confusamente inútil y con un componente visual. Algunos de los primeros memes de la web incluían imágenes burdas de personajes famosos pronunciando la frase «se me comió los huevos» (1996), una animación tridimensional de un bebé que baila (1996) y un collage de una pantalla llena de hamsters dibujados bailando con música acelerada (1998). Eran un poco cutres, rudos, monos, sorprendentes, asociados a famosos y fáciles de entender. Eran también mucho más difíciles de extender que los memes moder-nos, teniendo en cuenta la ausencia no solo de redes sociales y de pági-nas para compartir archivos, sino también de Google.

Servicios víricos La extensión vírica es el mecanismo por defecto por el cual muchos servicios virtuales consiguen sus objetivos: a través de enlaces y recomendaciones y el proceso de refuerzo de buscadores que recogen este impulso y dirigen el tráfico nuevo hacia ellos. Servicios

Una de las críticas más contundentes hechas en los últimos años de la cultura online y la viralidad proviene del académico legal estadounidense Cass Sunstein. Alega que el flujo rápido e ininterrumpido de ideas entre individuos de pensamientos afines por la red amenaza con convertir buena parte de la cultura popular en una serie de «cámaras de eco»: espacios que permiten a la gente confirmar simplemente sus propias opiniones y gustos establecidos, sin toparse ni transmitir nada que no atraiga de inmediato a sus particulares sensibilidades. Es un fenómeno que,

de ser real, supone el mismo peligro para la cultura que para la política, con la probabilidad de llevar a las personas a encerrarse en posicionamientos extremos, y permitiendo a aquellos que están en un extremo del espectro reforzar sus gustos extremos, por muy antisociales o reprensibles que resulten. Para algunos, obviamente, esta exhaustividad es uno de los grandes activos de la cultura digital, junto con su capacidad sin límites de extender ideas e imágenes por canales receptivos. Pero eso no niega los peligros y las limitaciones de los que Sunstein, entre otros, nos alerta.

Cámaras de eco

001-222 50 ideas digital.indd 174 22/02/2012 16:12:30

175 Hacerseviral

como los mismísimos Google y Yahoo! consiguieron buena parte de su éxito inicial a través de redes de recomendación y enla-ces, como posteriormente lo harían servi-cios sociales como My Space y Facebook.

La viralidad es generalmente un método de difusión para las compañías más jóve-nes o pequeñas, que, una vez establecidas, cada vez recurrirán más a las tácticas con-vencionales de marketing para reforzar su posición y sus ventajas. Pero se puede con-vertir en un arma de doble filo, teniendo en cuenta la facilidad con la que la insatisfacción, los rumores y la negatividad también se difunden.

La viralidad se generaliza A medida que se iba normalizando el consumo de medios por la red, la web ha experimentado la mayor extensión viral de materiales que reflejan cada vez más las preocupa-ciones generales. La gente a la que más se sigue en las redes sociales son los actores, los músicos y los famosos; en enero de 2011, los tres vídeos más vistos en YouTube fueron todos grabaciones de gran pre-supuesto de canciones famosas de Justin Bieber (425 millones de visi-tas), Lady Gaga (327 millones) y Shakira (270 millones).

Esto refleja no tanto la pérdida de la subcultura de Internet, como la pérdida de Internet como subcultura; en cambio, casi toda la corrien-te dominante cultural se está metiendo rápidamente en la red y en el proceso se está sometiendo a la estructura viral inherente a la red. Tanto las empresas como los particulares son muy conscientes de este hecho, lo que ha provocado la situación paradójica de que lo que más persiguen los negocios, los publicistas y los individuos creativos es una oleada perpetua de interés virtual por su trabajo... una señal de que «se han hecho virales».

En estos casos, la metáfora biológica es especialmente adecuada, pues-to que el arte de urdir el contagio vírico pasa por identificar a indivi-duos sensibles a ideas concretas y propensos a extenderlas —que las compañías de marketing a veces llaman «usuarios alfa».

La idea en síntesis:la transmisión vírica 

es el estado por defecto de la cultura digital

«Por muy listos que nos hagamos, siempre tenemos esta parte profunda e irracional que nos convierte en rehenes potenciales de la información que se autorreproduce.»nealstephenson

001-222 50 ideas digital.indd 175 22/02/2012 16:12:30

176 darformaalfuturodigital

En 1974 apareció un videojuego primerizo llamado Maze War, que dejaba que múltiples jugadores circularan por un rudimentario labe-rinto en 3D gritándose entre ellos, tal vez el primer ejemplo de un mundo gráfico compartido que se creaba en los ordenadores. Sin em-bargo, el primer auténtico mundo virtual fue uno que se basaba ente-ramente en las palabras. Introducido en 1978, fue bautizado como Multi-User Dungeon o MUD: consistía en una serie de descripciones de salas y ubicaciones interconectadas, y varios usuarios desde distin-tos terminales informáticos podían moverse a través de sencillas órde-nes geográficas, hablando entre ellos y relacionándose con el mundo. MUD1, como se acabó conociendo, fue creado por el programador Roy Trubshaw en la Universidad de Essex, en Gran Bretaña, en cola-boración con otro estudiante llamado Richard Bartle, que siguió desa-rrollándolo una vez que Trubshaw ya había abandonado la universi-dad. Curiosamente, todavía hoy se puede seguir jugando virtualmente a una versión del MUD1.

La gran innovación de MUD era doble: permitir a muchos jugadores ocupar el mismo espacio al mismo tiempo, pero también permitirles habitarlo no simplemente como ellos mismos, como en el caso de una sala de chat, sino interpretando el papel de personajes implicados en

43  Mundos virtualesLos mundos virtuales son una de las encarnaciones más puras de las nuevas posibilidades presentadas por la cultura digital: lugares independientes irreales que la gente puede «visitar», en los que puede interactuar y que puede utilizar para experimentar con distintas maneras de ser. La idea de mundos así es muy anterior a la tecnología informática; sin embargo, en las últimas décadas ha pasado a una velocidad considerable de ser un experimento puramente imaginario a moverse en terrenos potentes tanto artísticos como experimentales y, en forma de juegos virtuales con multitud de jugadores, se ha convertido en uno de los negocios digitales más dinámicos y rentables del siglo xxi.

cronología1974 1978 1991 1999 2003 2004Primer juego tridimensional

Primer mundo virtual habitado por muchos personajes

Lanzamiento de Neverwinter Nights

Lanzamiento de EverQuest Lanzamiento de Second Life Lanzamiento de World of Warcraft

001-222 50 ideas digital.indd 176 22/02/2012 16:12:30

177 mundosvirtuales

la exploración de un mundo alternativo a veces peligroso. Desde el principio, la relación entre mundos virtuales y juego era muy estrecha.

Llegada la década de 1980 empezaron a apare-cer los elementos gráficos. Uno de los primeros mundos virtuales gráficos en red apareció en 1986. Se llamaba Air Warrior y permitía a los jugadores participar en combates aéreos simula-dos entre ellos a través de un primario sistema de red informática llamado General Electric Network for Information Exchange, abreviado como GEnie. GEnie también albergó algunos de los primeros experimentos con mundos compartidos más complejos, como el juego de fantasía GemStone, de 1988, basado en texto. El primer juego de este tipo que incorporó gráficos, Neverwinter Nights, apareció en 1991 en la red de America Online.

Mundos abiertos Mientras Internet empezaba a convertirse en la forma predominante de informática en red, paralelamente a los jue-

«No jugamos con juguetes sino con personas. Tenemos que usar lo que ya tenemos y marcar la diferencia.»raphKoster

cronología1974 1978 1991 1999 2003 2004Primer juego tridimensional

Primer mundo virtual habitado por muchos personajes

Lanzamiento de Neverwinter Nights

Lanzamiento de EverQuest Lanzamiento de Second Life Lanzamiento de World of Warcraft

Una de las áreas de estudio más fascinantes que aparecen con los mundos virtuales es su impacto potencial en el estudio de la conducta humana. Desde la psicología hasta la economía y la política, la capacidad de medir y comparar precisamente las conductas humanas dentro de entornos tridimensionales complejos es algo que no tenía precedentes. Aunque los personajes de los mundos virtuales no son reales, las personas que hay detrás de ellos sí lo son, y a menudo exhiben una serie de comportamientos mucho más «realistas» de los que pueden lograrse en condiciones

experimentales... y en una escala mucho más grande. La economía, en concreto, es un símil muy real en muchos mundos virtuales, donde tienen lugar sistemas de trueque, monopolios, subastas y complejas colaboraciones entre jugadores. De manera más directa, los entornos de entrenamiento virtual se utilizan cada vez más para formar en cualquier disciplina, desde pilotos y soldados hasta cirujanos, recepcionistas y conductores de tren, con miles de millones invertidos anualmente por el ejército de Estados Unidos, entre otros, en programas y herramientas de simulación.

Lecciones virtuales para vidas reales

001-222 50 ideas digital.indd 177 22/02/2012 16:12:30

178 darformaalfuturodigital

gos empezaron a aparecer otras formas más abiertas de mundos virtua-les. Estaban tipificadas por creaciones como The Palace, de 1995, que permitía a los usuarios crear sus propios palacios bidimensionales, den-tro de los cuales podían hablar entre ellos y customizar avatares indivi-duales. Mundos virtuales abiertos y sin restricciones como The Palace ofrecían importantes y nuevos tipos de espacios y experiencias socia-les. Pero fue dentro de los juegos —en los que los participantes estaban llamados a conseguir objetivos concretos y obligados a colaborar— donde los mundos virtuales empezaron a demostrar todo su potencial como motores del compromiso humano. El primer juego virtual tridi-mensional con participación masiva de jugadores (normalmente cono-cidos como MMO, por «massive multiplayer online»), el Meridian 59, apareció en 1996 en su versión comercial, seguido en 1997 de uno de los mundos virtuales más influyentes de la historia: Ultima Online.

Juegos de MMO Ultima Online fue el primer mundo virtual tridimensional que alcanzó una población de más de 100.000 partici-pantes. Su éxito allanó el camino para un nuevo tipo de entorno vir-tual complejo: uno lo bastante atractivo como para llevar al desarro-llo de toda una economía sumergida de dinero del mundo real, basada en la creación y venta de artículos y propiedades virtuales (véase el capítulo 36).

Desde Ultima, los MMO complejos han seguido siendo un sector flo-reciente, con grandes lanzamientos que han ido desde el EverQuest en 1999 hasta el EVE Online en 2003 y, tal vez el más famoso de to-dos, el World of Warcraft en 2004, que hoy cuenta con más de 12 millones de jugadores. Pero hay también espacios virtuales más senci-llos que se han ido volviendo populares, en estilos que van desde la conducción hasta las peleas, la gestión y la estrategia en tiempo real.

Más allá del juego Aparte de los juegos, la influencia de los mun-dos virtuales ha seguido creciendo. En 2003, la empresa estadouni-dense Linden Lab sacó Second Life, un espacio online en el que se otorgaba a los jugadores un grado de libertad sin precedentes para que desarrollaran vidas a través de sus avatares, comprando terrenos vir-tuales y consumiendo bienes virtuales de una serie de compañías rea-les con presencia virtual en Second Life.

«Cualquiera que tema por los efectos de los mundos virtuales sobre las relaciones sociales ha de dirigir su preocupaciones

a la televisión antes de fijarse en los mundos virtuales.»

richardbartle

001-222 50 ideas digital.indd 178 22/02/2012 16:12:30

179 mundosvirtuales

Second Life es esencialmente un espacio social, construido para disfru-tar de los placeres fantásticos de crear cualquier cosa, desde palacios hasta fábricas virtuales, pero ha aparecido como local virtual de cual-quier cosa, desde reuniones de trabajo hasta colaboraciones artísticas y clases. Y también cada vez más, se han desarrollado mundos virtuales especializados para atender estas exigencias variadas, que van desde las simulaciones educativas como Whyville —fundado en 1999 y usado actualmente por más de cinco millones de personas— hasta entornos para la formación en el ámbito de los negocios, militar o médico.

El ocio sigue siendo la fuerza dominante del sector, pero con el avance gradual en la aplicación de los entornos virtuales dentro de campos que van desde la educación hasta el entrenamiento y la simulación, lo que al-gunos llaman «Internet tridimensional» parece listo para salir de sus primeros límites hacia una gama cada vez más diversa de otros reinos.

La idea en síntesis:crear mundos 

virtuales ayuda a crear otras maneras 

de ser

El giro de la atención hacia mundos virtuales conlleva diversos temores, algunos de los cuales se centran en la negligencia hacia la vida real. Se cuentan anécdotas de advertencia sobre «viudas del Aircraft» que abandonan a sus maridos por culpa de su hábito jugador, o de casos más extremos en los que el bebé de una pareja ha muerto por negligencia mientras los padres jugaban a un juego online. Teniendo en cuenta las decenas de millones de personas que participan en estos juegos en la actualidad, los casos extremos siempre existirán. Pero los estudios sugieren que aquellos predispuestos a la conducta adictiva han de proceder con

cautela por las extraordinariamente atractivas experiencias que algunos mundos de juego son capaces de ofrecer... y que las empresas podrían hacer algo más por promover un uso equilibrado de sus productos. Pero hay también esperanza en las características más esenciales de los mundos virtuales: son muy interactivos y permiten participar a muchos jugadores, a diferencia de los medios lineales como la televisión. Porque los mundos virtuales no son inevitablemente aislantes o una simple cuestión de «irrealidad», sino que pueden también ser una vía hacia la acción y una manera de volver a involucrarse con el mundo.

Juegos peligrosos

001-222 50 ideas digital.indd 179 22/02/2012 16:12:30

180 darformaalfuturodigital

Hay básicamente dos clases distintas de avatar. La primera, también cronológicamente, son los avatares estáticos que solo representan a las personas en territorios de la red que van desde los foros de discu-sión hasta blogs y algunas redes sociales. La segunda, personajes digi-tales reales que las personas pueden controlar dentro de los mundos, juegos o entornos digitales, y que a su vez pueden tener pertenencias o propiedades virtuales y a menudo se pueden customizar detallada-mente.

Como sugiere la película de James Cameron de 2009 Avatar —en la que personajes humanos pueden, a través de la tecnología, habitar y controlar cuerpos extraños artificiales—, los avatares no tienen por qué ser figuras humanas. De hecho, ni siquiera tienen por qué ser ni anima-les ni seres vivos. Hasta cierto punto, cualquier objeto virtual controla-do por un humano puede considerarse un avatar, aunque el término suele implicar cierto grado de personificación e identificación.

Los primeros avatares El término avatar se utilizó por primera vez en el sentido digital en 1985, para significar simplemente los ico-nos que se colocaban junto al nombre de las personas en los primeros foros de debate de Internet. Pero no fue hasta la aparición de la nove-la de Neal Stephenson Snow Crash, en 1992, cuando el término empe-zó a popularizarse. Los avatares de los primeros foros eran en general hacks hechos por usuarios avanzados, más que símbolos estandariza-dos... y en muchos casos funcionaban como firmas digitales mejora-das, con caras o iconos dibujados con símbolos ASCII.

44  AvataresLa palabra avatar deriva del vocablo sánscrito que describe la encarnación de un dios en otro ser. En tecnología, describe la forma en que se representa una persona dentro de un entorno digital —ya sea la forma de un personaje dentro de un mundo virtual o, sencillamente, un icono o nombre dentro de una sala de chat o de un foro virtual—. Esta noción de encarnación digital es fundamental en buena parte de la cultura digital y para entender las conductas dentro del reino digital.

cronología1985 1992 1995 2006 2010Primera utilización de la palabra avatar en sentido digital

Neal Stephenson populariza el término avatar

Primeros avatares tridimensionales en los chats

Nintendo introduce los miis Lanzamiento del Kinect de Microsoft

001-222 50 ideas digital.indd 180 22/02/2012 16:12:30

181 avatares

El tipo de personalización que ofrecían los avatares tenía un atractivo universal, y a mediados de la década de 1990 muchos foros de discu-sión ofrecían avatares como elemento estándar, normalmente en for-ma de pequeños recuadros para ser ocupados por una imagen pixela-da. La temprana sala de chat Virtual Places Chat fue, en 1994, una de las primeras en ofrecer avatares a sus usuarios en forma de pequeñas imágenes bidimensionales, seguidas al año siguiente por otros servi-cios que ofrecían rudimentarios avatares tridimensionales como parte de la experiencia del chat.

Vivir en un avatar Una vez que la idea de avatar empezó a salir del simple icono bidimensional para pasar a las tres dimensiones, se estableció una sinergia natural entre el campo ya afianzado de los vi-deojuegos y los campos emergentes de los gráficos tridimensionales y el chat online como experiencia más inmersiva que la que ofrecen sencillamente las salas de chat. Los juegos de multijugadores masivos en tres dimensiones empezaron a desarrollarse por la red a partir de 1996 (véase el capítulo 43), y pronto resultó evidente que los avatares

cronología1985 1992 1995 2006 2010Primera utilización de la palabra avatar en sentido digital

Neal Stephenson populariza el término avatar

Primeros avatares tridimensionales en los chats

Nintendo introduce los miis Lanzamiento del Kinect de Microsoft

¿Cómo influye el aspecto de alguien en su conducta y en la de los demás en el mundo virtual? Tal vez no resulte raro que los experimentos con distintos tipos de avatares hayan hallado que la gente suele sentirse más segura y dispuesta a atraer a los demás cuando usan avatares más atractivos. Pero resulta todavía más interesante el hecho de que estos efectos pueden traspasarse al mundo real, y que después de usar avatares atractivos y haberse mostrado seguros en la red, las personas pueden, durante un breve período de tiempo,

sentirse más seguras en el mundo real. Las implicaciones de esto pueden resultar difíciles de concretar, pero sugiere que los procesos de identidad e identificación asociados con la adopción de una presencia digital secundaria no difieren demasiado de nuestro sentido de la identidad personal... y que el futuro de la identidad puede, en parte, suponer un diálogo entre las distintas maneras en que las personas interactúan entre ellas, y las distintas maneras que constituyen las distintas versiones de «ellos».

Extraños altos y morenos

001-222 50 ideas digital.indd 181 22/02/2012 16:12:31

182 darformaalfuturodigital

que utilizaba la gente dentro de ellos representaban un nuevo orden de inmersión en la experiencia online. A medida que los juegos y los mundos virtuales alcanzaban un público masivo, la sofisticación de la customización de los avatares creció rápidamente, junto con las posi-bilidades de la acción. Aprendiendo de los juegos virtuales, la crea-ción de avatares a medida se convirtió pronto en un elemento básico de la mayoría de juegos de gran presupuesto, con personajes suscepti-bles de adaptarlo todo, desde el peso y la altura hasta el color del pelo, la ropa y los accesorios.

El grado de inversión del usuario en tales avatares se puede calcular por el considerable mercado que hay alrededor de la compra de acce-sorios virtuales, un gran canal de ingresos en particular para los juegos en red de Asia, que suelen ser de participación gratuita y luego apoya-dos en micropagos para los elementos extra. Hay también un número creciente de juegos y mundos virtuales que implican que los jugadores han de mantener entornos elaborados en los que habitan e interac-túan sus avatares... y hasta juegos dentro de juegos para que los avata-res jueguen.

Terreno personal Con la última generación de consolas de juego se ha dado un salto más en la personificación virtual. Apare-cida en 2006, la consola Wii de Nintendo le pedía a cada usuario que se creara una versión tipo vi-ñeta de él mismo —conocido como mii— para su uso no en un solo juego, sino en todos los juegos que se adquirieran para ese sistema.

Además, se utilizan los miis de los distintos jugadores para llenar de gente los juegos, siendo cada con-sola capaz de almacenar hasta cien miis distintos... y de juntarlos con miis de otras consolas por In-ternet. Esta noción de avatares gráficos universales repartidos por toda una gama de servicios fue in-troducida en 2008 por Microsoft con su consola Xbox 360, que per-mitía a los jugadores crearse un personaje a medida para utilizar-lo por toda una serie de juegos.

Con la aparición de la primera generación de tecnología asequible de fabricación masiva y de control de movimiento —representada por el éxito del periférico Kinect de Microsoft para su consola Xbox 360— ha aparecido otra posibilidad: el control directo y en tiempo real del cuerpo del jugador y sus acciones traspasado a un entorno virtual. Las funciones de Kinect a través de cámaras estereoscópicas que captan el movimiento son capaces de seguir el de dos personas en una habitación y utilizar esta información para controlar los avatares de la pantalla con gran precisión, basándose en el modelo de las articulaciones y el esqueleto. Ahora, con el Kinect que lleva reconocimiento de voz y de rasgos faciales a través de sus cámaras y micrófonos; eso significa la llegada de la personificación digital en avatares en un nuevo sentido íntimo: el cuerpo, la cara y la voz de alguien transportados sin mediación alguna a acciones en vivo en una pantalla y en interacción con otros avatares controlados de manera parecida.

Personificación

001-222 50 ideas digital.indd 182 22/02/2012 16:12:31

183 avatares

El sistema fue lo bastante aceptado como para que en 2009 Microsoft introdujera un Mercado Avatar, en el que se vendía ropa y acceso-rios para sus avatares, incluyendo productos virtuales de marcas co-nocidas. Microsoft no ha sido el único: el mundo virtual Second Life dispone de un próspero mercado de productos virtuales con marcas reales.

Tecnología de emergencia El futuro de los avatares se está definiendo rápidamente como una combinación de nueva tecnología de interfaces (véase el recuadro de la página anterior) y de un nuevo nivel de realismo en el desarrollo informático de modelos. El departa-mento de investigación de un estudio británico de juegos, Blitz Ga-mes Studios, ha demostrado, por ejemplo, una tecnología avatar de próxima generación que crea cabezas humanas ultrarrealistas siguien-do una serie de escalas proporcionales que el usuario puede modificar en tiempo real para definir cualquier franja o combinación de género, tono de piel, raza, tipo y estilo de rasgos, peso, edad, complexión, pelo y accesorios.

Teniendo en cuenta la calidad casi cinemática de los modernos mo-delos tridimensionales y de la captación de movimiento, la perspecti-va de egos virtuales a medida, casi imposibles de diferenciar en panta-lla de las escenas filmadas, no es algo tan lejano... algo que ya han demostrado las versiones cada vez más realistas de personas, desde ju-gadores de fútbol famosos hasta actores, que se encuentran en los video juegos comerciales más caros.

La idea en síntesis:el mundo digital está

lleno de otros yos

«Por un lado me asusta y por el otro me fascina pensar adónde llevará a la gente. ¿Qué impacto tiene una identidad falsa

sobre tu identidad real?»susangreenfield

001-222 50 ideas digital.indd 183 22/02/2012 16:12:31

184 darformaalfuturodigital

Desde mediados de la década de 2000, este tema ha sido una de las fuentes de debate más candentes sobre el futuro de Internet, con mu-chas figuras influyentes defendiendo la neutralidad de la red como principio vital. En contra, los críticos han alegado que la capacidad de diferenciar entre distintos tipos de tráfico en Internet y de permitir a los clientes pagar por una «línea rápida» forma parte de la competi-ción abierta y de la maximización de recursos limitados.

La neutralidad de las redes de comunicación ha sido tema de debate y legislación desde el invento del telégrafo en 1860, pero la neutralidad de la red en sí es algo relativamente reciente. El debate actual fue an-ticipado en un artículo de junio de 2003 del profesor Tim Wu, de la Columbia Law School, titulado «Network Neutrality, Broadband Discrimination», que examinaba el concepto de la neutralidad en la red en las normativas de telecomunicaciones y su relación con las teorías darwinianas de la innovación. En su corazón hay una cuestión muy simple: ¿han de tener los proveedores de Internet derecho a ofrecer a las empresas un servicio de tarifa especial que permita que sus contenidos circulen por la red más rápido que otro tráfico más «normal»?

El debate, de momento, ha sido muy candente en Estados Unidos, pero plantea cuestiones que el mundo en general debe responder y que tendrán un efecto profundo en la futura naturaleza de Internet y de las empresas que operan por la red. Un Internet «abierto» está casi

45  Neutralidad de la red

El principio de «neutralidad en la red» afirma que ni los Proveedores del Servicio de Internet (ISP) ni los gobiernos han de poder imponer restricciones en el uso de Internet: los clientes que pagan cierta cantidad a cambio del acceso a Internet han de recibir todos el mismo nivel de servicio y ser libres de usar los aparatos, sitios y servicios que quieran.

cronología2003 2005 2010Primer artículo sobre la neutralidad en la red de banda ancha

Declaración de Normativa de Banda Ancha de la FCC

Comcast gana el juicio contra la FCC

001-222 50 ideas digital.indd 184 22/02/2012 16:12:31

185 neutralidaddelared

universalmente considerado deseable como principio, pero las cre-cientes cantidades de tráfico que se transmiten a través del mismo y su creciente centralidad para buena parte del mundo comercial signi-fican que para algunos no tiene sentido intentar proteger la total igualdad en todos los aspectos de acceso y servicio.

Un Internet abierto En 2005, la Comisión Federal de Comuni-caciones (FCC) estadounidense estableció los principios básicos de un Internet abierto en las cuatro directrices para su Declaración de Nor-mativa de Banda Ancha, afirmando los derechos de los consumidores a acceder a cualquier contenido que deseen vía cualquier proveedor de Internet y a través de cualquier dispositivo y usando cualquier apli-cación, siempre y cuando todo ello fuera legal. Estos cuatro principios no cubren explícitamente el principio de discriminación entre distin-tos servicios de Internet... algo que en 2009 llevó al presidente de la FCC a proponer que se añadieran dos directrices más a la Declaración de Normativa, prohibiendo a los proveedores de Internet que discri-minaran en manera alguna entre el nivel de servicio que se ofrecía para las distintas aplicaciones y tipos de contenido, y asegurando que

cronología2003 2005 2010Primer artículo sobre la neutralidad en la red de banda ancha

Declaración de Normativa de Banda Ancha de la FCC

Comcast gana el juicio contra la FCC

Los Proveedores del Servicio de Internet (ISP) gestionan enormes cantidades de datos para ofrecer el acceso a Internet a varios millones de personas, y eso significa que una de las cuestiones más vitales para su industria es cómo hacer que sus redes sean lo más eficientes y efectivas posible. La «configuración del tráfico» adopta muchas formas, pero básicamente se resume siempre en lo mismo: retrasar paquetes concretos de datos para controlar el volumen de tráfico en cualquier momento. Eso puede suponer la simple retención de datos basándose en el nivel de tráfico, o puede recurrir

a maneras más complejas de clasificar los distintos tipos de datos. En las redes cada vez más complejas gestionadas por muchas compañías, la configuración del tráfico es una herramienta vital. Pero como demuestra el debate sobre la neutralidad en la red, hay mucha gente que cree que cuando hablamos del abastecimiento básico del servicio de Internet no es aceptable que los proveedores diferencien entre datos de distintos niveles de prioridad. Naturalmente, muchos proveedores del servicio discrepan y consideran la configuración sofisticada del tráfico como parte integral de su negocio.

Cómo se configura el tráfico

001-222 50 ideas digital.indd 185 22/02/2012 16:12:31

186 darformaalfuturodigital

los clientes siempre tuvieran un acceso abierto y claro a todos los de-talles de la normativa.

A pesar de estos cambios, la FCC ha tenido dificultades legales para impedir que los proveedores del servicio varíen las velocidades a las que se puede acceder a los distintos tipos de contenidos. En un juicio de 2010, el proveedor estadounidense Comcast ganó un caso contra la FCC, defendiendo su derecho a ralentizar el tráfico peer-to-peer en-tre usuarios —un gesto que tenía por objetivo restringir la cantidad de archivos que se compartían entre ellos— en nombre de la buena ges-tión de la red.

Aparte de demostrar los límites de los poderes reguladores como la FCC, el caso de 2010 subrayó las diferencias dentro de la noción de lo que tenía que significar exactamente la neutralidad en la red: ¿tenía que permitirse la discriminación limitada, siempre y cuando la mejor cali-dad del servicio no vaya asociada a un mayor pago? ¿O han de transmi-tirse los datos totalmente en base al orden temporal, con las peticiones de datos de los usuarios sujetas tan solo a su orden de llegada? A princi-pios de 2011, mientras Estados Unidos y otros países tienen leyes que protegen algunos aspectos de un Internet abierto, no hay prácticamente legislación vinculante que impida a los proveedores del servicio restrin-gir o filtrar el acceso de los usuarios a distintos sitios y servicios.

Pro neutralidad En los últimos años, un grupo influyente y pro-minente de empresas y particulares se han manifestado a favor de una

Uno de los puntos fundamentales del debate sobre la neutralidad en la red es la innovación... y la capacidad de Internet de ofrecer una idea individual brillante a un público enorme sin la necesidad de levantar antes una enorme cantidad de financiación. Como lo formulaba el grupo de la campaña Save the Internet, «la neutralidad en la red garantiza que los innovadores puedan empezar desde abajo y levantar grandes sueños sobre convertirse en el siguiente eBay o Google sin enfrentarse a obstáculos insuperables». Si, alegan, las empresas establecidas pueden pagar para aumentar su propia accesibilidad

online, o si las compañías jóvenes han de pagar tarifas especiales para mantener una presencia digital competitiva, buena parte del dinamismo innovador de la red tal y como la conocemos se verá amenazado. Pero por lo que atañe a muchos ISP y otras agencias, lo contrario es cierto, y a menos que haya modelos flexibles de financiación que permitan grandes inversiones en infraestructura de Internet, dejará de ser un territorio innovador debido al descenso gradual de la calidad de acceso, al aumento de los impresionantes niveles de tráfico, a los sitios basura y a una legislación sobreprotectora.

El tema de la innovación

001-222 50 ideas digital.indd 186 22/02/2012 16:12:31

187 neutralidaddelared

protección legal formal de este tipo, incluyendo al creador de la World Wide Web, Tim Berners-Lee, Google, Microsoft, Yahoo! y Barack Obama. A lo que se oponen no es a todas las formas de discrimina-ción entre los distintos tipos de datos en la red, sino entre las distintas posibilidades de las personas de acceder al mismo tipo de datos. El ar-gumento es que los «guardianes» —como se conoce a menudo a los ISP— no han de poder determinar que un mismo contenido, música, vídeo o producto, sea más fácilmente accesible desde una fuente que desde otra. Sin embargo, esto no incluye el derecho a dar prioridad a diferentes tipos de tráfico online: dar a los envíos de archivos una prioridad menor que a las interacciones de voz, por ejemplo.

En Gran Bretaña, el director general de la BBC, Mark Thompson, afirmaba a principios de 2011 que es vital para la misión de servicio público de la BBC que los ISP no puedan cobrar a las empresas por ofrecer un acceso mejorado a sus páginas web. La UE, en el momento de redactar estas líneas, se encontraba elaborando una nueva legisla-ción reguladora para la provisión de Internet, ya que la actual legis- lación parece poco preparada para impedir a las empresas ofrecer un servicio de distintas velocidades, si así lo desean.

Mientras, muchas empresas globales de Internet y cable, entre otras, han expresado sus críticas a los argumentos a favor de la neutralidad, sugiriendo que las mejores oportunidades de ingresos que ofrece la pro-visión de un servicio de distintas velocidades son importantes para la inversión futura en Internet, y que con la rápida evolución del mundo de la legislación y la tecnología digitales, cualquier legislación aprobada tenderá a ser tan inefectiva como a quedar rápidamente anticuada.

La idea en síntesis:¿puede toda laactividad en la redpermanecer igual?

«A medida que la web se convierte en medio de transporte de contenidos cada vez más ricos, la cuestión de si todo el

contenido de todos los proveedores recibe el mismo trato de las redes se vuelve más

cortante.»markthompson,directorgeneraldelabbc

001-222 50 ideas digital.indd 187 22/02/2012 16:12:31

188 darformaalfuturodigital

Tim Berners-Lee estableció por primera vez su visión de la web se-mántica en su libro Weaving the Web, afirmando: «Tengo un sueño para la web... y tiene dos partes. En la primera, la web se convierte en una manera mucho más potente de colaboración entre personas... En la segunda parte del sueño, la colaboración se extiende a los ordena-dores. Las máquinas se vuelven capaces de analizar todos los datos de la web —el contenido, los enlaces y las transacciones entre gente y ordenadores—. Una “web semántica”, que debe hacer que todo esto sea posible, está todavía por llegar, pero cuando lo haga, los mecanis-mos día a día del comercio, la burocracia y nuestras vidas cotidianas serán gestionados por máquinas que hablarán con otras máquinas, de-jando para los humanos la aportación de inspiración e intuición».

La propia palabra semántica significa relativo al significado, o a la dis-tinción entre los significados de distintas palabras y símbolos. La «web semántica» de Berners-Lee no tiene una definición formal con-cisa, pero se basa en el uso de un conjunto de tecnologías virtuales para añadir a una rica capa adicional a la World Wide Web, entrela-zando los significados y la importancia de la información, además del

46  Web semánticaA los ojos del creador de la World Wide Web, Tim Berners-Lee, el futuro de su creación está en un proyecto que ha bautizado como «web semántica». Como una nueva manera de pensar cómo se «codifica» la información online, la web semántica propone remplazar el sistema sencillo de páginas enlazadas entre ellas utilizadas por la actual web con un sistema mucho más rico para describir la naturaleza y el contenido exactos de toda la información que hay en una página web. Estas descripciones «semánticas» tendrían el potencial de localizar e integrar automáticamente toda la información relacionada. El sistema podría representar ni más ni menos que una revolución tan grande como la primera encarnación de la web otra vez.

cronología1999 2002 2008Tim Berners-Lee esboza la web semántica Empieza la primera propuesta de Lenguaje

Ontológico de la WebEmpieza el desarrollo del segundo Lenguaje Ontológico de la Web

001-222 50 ideas digital.indd 188 22/02/2012 16:12:31

189 Websemántica

simple contenido de estos datos. Lo esencial de ello es la idea de que las aplicaciones web serán algún día capaces de analizar el contexto en el que las palabras y las informaciones se utilizan, y luego lo conec-tarán automáticamente con otros contextos que contienen conceptos y datos parecidos... un modelo mucho más inteligente y potente para los programas de la web del que es posible actualmente.

Más allá del HTML En una web semántica, el HTML, el len-guaje codificado de hipertexto utilizado como base de la actual World Wide Web, sería remplazado por una combinación de tecnologías más avanzadas, como el XML, que abarca una enorme cantidad de meta-datos —una capa adicional de información que describe la naturaleza de toda la información de una página— dentro de la estructura de las páginas web. La estructura que estos metadatos debían adoptar empe-zó a establecerse por primera vez por la World Wide Web Corpora-tion de Berners-Lee en 2002, proponiendo un Lenguaje Ontológico de la Web (del que salieron las iniciales un poco confusas OWL) que «aportaría un lenguaje que puede utilizarse para aplicaciones que pre-cisan entender el contenido de la información en vez de limitarse a entender la presentación legible por el ser humano».

cronología1999 2002 2008Tim Berners-Lee esboza la web semántica Empieza la primera propuesta de Lenguaje

Ontológico de la WebEmpieza el desarrollo del segundo Lenguaje Ontológico de la Web

A pesar de sus promesas, hay críticos que ven fallos esenciales en la idea de una web semántica, en relación con el tamaño y con la imprecisión de la información que la web en general representa. Decenas de miles de millones de páginas significan que un sistema semántico entero debería ser capaz de reconciliar y categorizar correctamente un potencial de cientos de millones de términos, muchos de ellos redundantes o duplicados. Encima, muchos conceptos y definiciones son lo bastante «difusos» como para que resulten muy difíciles

de concretar en un sentido comprensible por una aplicación que funciona a través de una máquina, en especial cuando hay contradicciones directas entre distintas versiones de información o discusiones concretas. Estos problemas son bien conocidos por aquellos que intentan crear la web semántica, y a pesar de todo creen que con el tiempo será posible superarlos gracias al desarrollo continuado de técnicas para tratar con lógica mecánica las ideas vagas, las probabilidades y las incertidumbres.

¿Un sueño imposible?

001-222 50 ideas digital.indd 189 22/02/2012 16:12:31

190 darformaalfuturodigital

El problema fundamental al que se enfrenta el OWL es aplicar un sis-tema de clasificación de datos lo bastante potente y riguroso para per-mitir que las máquinas «comprendan» automáticamente el significado de los distintos datos en contextos distintos. Esto significa identificar «propiedades» particulares sobre cada fragmento de información a cla-sificar, incluyendo su clase (un caballo, por ejemplo, pertenecería a las categorías «mamíferos», «animales» y «cuadrúpedos»), sus propieda-des en relación con otros objetos (de modo que un padre tendría la propiedad de «tiene hija» en relación con su hija), su puesto dentro de una jerarquía de clases (indicando que «mamífero» es un subconjunto de «animal»), etcétera.

Para que eso funcione, es importante que se haga referencia a fuentes centrales de datos, más que intentar definirlo todo individualmente en una página. Así, el indicador de clase de que una persona o un ca-ballo son «mamíferos» referiría automáticamente a un punto central de datos que definiera exhaustivamente la clase «mamífero». Al final, puede ser posible definir cada uno de los atributos de una página web utilizando este tipo de referencia a puntos centrales de datos, de modo que, por ejemplo, hasta algo tan sencillo como decidir poner una lí-nea de texto en negrita se consiguiera refiriéndose a una definición central compartida de lo que significa que un texto esté en negrita.

La web semántica hoy La web semántica ya funciona de mane-ra limitada por debajo de la superficie de la web actual. Con las cesio-

Igual que Web 2.0 es una manera abreviada de los actuales desarrollos que ocurren en la World Wide Web, la Web 3.0 mira hacia su próxima gran transformación, algo que para muchos tiene a la web semántica como un pilar fundamental. Si se consigue algo como la web semántica, ¿qué cambios relacionados podemos esperar que ocurran en la cultura digital y virtual? Teniendo en cuenta que una web semántica en funcionamiento supondrá que las máquinas y las aplicaciones «entiendan» los datos de una manera mucho más cercana al conocimiento humano que la actual, hay analistas que ven esto como una parte de una convergencia gradual entre el mundo físico y el digital: un estado que a menudo se nombra como «metaverso», que significa una fusión mejorada de las experiencias virtuales y reales más allá de nuestra actual concepción del universo físico como el único que existe. Otros temas clave son la continuada integración de servicios personalizados en redes mayores, y el potencial para un acceso customizado a Internet basado en la comprensión de las aplicaciones de la personalidad y las preferencias de un individuo en un grado mucho mayor de lo que es posible hasta la fecha.

Web 3.0

001-222 50 ideas digital.indd 190 22/02/2012 16:12:31

191 Websemántica

nes de copyright de Creative Commons, por ejemplo, una base de datos central almacena todos los detalles de una cesión, y los docu-mentos individuales simplemente contienen enlaces a este recurso central, en vez de tener que llevar reproducidos los detalles completos ellos mismos. Además, la manera en que estos enlaces están incluidos en las páginas contiene una gran cantidad de metadatos diseñados para ayudar a los buscadores y otras aplicaciones web a entender automáti-camente lo que significa una cesión y cómo se está utilizando. El pen-samiento semántico tiene también muchas aplicaciones digitales fue-ra de la web, y en particular en el campo de las bases de datos y de la gestión de la información, en el que Berners-Lee también ha sido muy influyente encabezando un movimiento de «código abierto» pensado para instituir la estandarización de las grabaciones de datos públicos y gubernamentales en bases de datos abiertas, etiquetadas semántica-mente, lo que permite que sean usadas y analizadas por potentes apli-caciones de terceros.

Queda un camino considerable por recorrer antes de que tales princi-pios se puedan aplicar por toda la web en general, pero para muchos del sector digital, la lógica de la web semántica es muy atractiva y ya podría empezar a aplicarse cada vez más a la información digital, a medida que las capas adicionales de información empiezan a codifi-carse en todos los dominios, desde los programas cartográficos y geo-gráficos hasta las especificaciones de productos.

La idea en síntesis:enseñar a las máquinas a 

comprendernos

«La web semántica no es una web separada, sino una ampliación de la

actual en la que a la información se le otorga un significado bien definido.»

timberners-lee

001-222 50 ideas digital.indd 191 22/02/2012 16:12:31

192 darformaalfuturodigital

En el sentido más esencial, casi toda la tecnología aumenta la capa-cidad de las personas para actuar dentro del mundo: la ropa nos pro-tege, los vehículos nos transportan, la palabra escrita traslada nues-tro conocimiento y experiencias a través del tiempo y el espacio, las telecomunicaciones nos permiten ver y oír a los demás desde muy lejos...

Pero lo que ofrece en particular el poder creciente de la tecnología digital es la posibilidad de que sonidos, imágenes e intercambios ge-nerados por ordenador se puedan superponer en tiempo real a las per-cepciones que alguien tiene del mundo, y en respuesta directa a lo que está ocurriendo en el mundo.

La realidad aumentada, como su nombre sugiere, podría conllevar teóricamente una intensificación de cualquier aspecto de nuestra ex-periencia de la realidad: olor, sabor, tacto, imagen, sonidos. Pero en la práctica, tiende a funcionar a través del sonido y de la imagen, y tal vez del feedback mediante tecnología del tacto —es decir, los movi-mientos físicos—. Y suele canalizarse ya sea a través de dispositivos móviles o a través de tecnología adaptada.

47  Realidad aumentada

La tecnología digital es cada vez más capaz de conjurar entornos virtuales complejos, exhaustivos, dentro de los cuales miles y hasta millones de personas pueden interactuar. Pero esta no es la única manera en la que la tecnología está cambiando la experiencia humana de lo que las acciones e interacciones «reales» significan. Hay otro campo floreciente que es el uso de la tecnología no para remplazar las experiencias reales con otras virtuales, sino para potenciar la experiencia cotidiana del mundo superponiéndola con información sensible al contexto, a las imágenes, a las posibilidades de acción y a otros aspectos. Es el reino de la «realidad aumentada».

cronología1966 1989 1992 2003 2009Primer dispositivo head mounted Se acuña la frase «realidad virtual» Se acuña la frase «realidad

aumentada»BMW empieza a fabricar pantallas de visualización frontal para sus coches

Lanzamiento de Layar, primer navegador de realidad aumentada

001-222 50 ideas digital.indd 192 22/02/2012 16:12:31

193 realidadaumentada

Primeros indicios La realidad aumentada es una idea reciente, pero ya estamos relativamente acostumbrados a algo que se le parece: el aumento de imágenes reales y en vivo mostradas en pantalla. En las retransmisiones televisivas de encuentros deportivos en directo, por ejemplo, actualmente es relativamente habitual ver diagramas o sím-bolos sobreimpresos en el terreno de juego para destacar aspectos del partido.

De la misma manera, la publicidad televisiva en algunos aconteci-mientos deportivos experimenta cada vez más con la creación digital, haciendo aparecer distintos anuncios en los estadios dependiendo de la parte del mundo en la que se encuentra el público del partido. Tal tecnología se apoya en el rastreo de las ubicaciones de los anuncios en tiempo real para luego generar imágenes digitales que se funden impe-cablemente con las imágenes reales que los rodean, lo que significa que lo que los espectadores ven en sus casas puede ser totalmente dis-tinto a si estuvieran presentes en el evento.

«Creo firmemente que la realidad aumentada será la próxima revolución en la web.»

roulinir

cronología1966 1989 1992 2003 2009Primer dispositivo head mounted Se acuña la frase «realidad virtual» Se acuña la frase «realidad

aumentada»BMW empieza a fabricar pantallas de visualización frontal para sus coches

Lanzamiento de Layar, primer navegador de realidad aumentada

En 2009, la aparición del juego EyePet para la PlayStation 3 y la PlayStation Portable llevaba a un público más amplio el potencial de la realidad aumentada. A través de una cámara adjunta, el juego hace aparecer una mascota virtual parecida a un mono dentro de contextos reales en pantalla: la cámara se enfoca y el animal virtual se puede ver a través de la consola, y parece que interactúa con personas y objetos. El proceso de la interacción opera en dos

direcciones, con la criatura virtual moviéndose para evitar obstáculos del mundo real, mientras también se le pueden dar objetos reales que luego parecerá utilizar dentro del paisaje real. La tecnología no era perfecta, pero fue una de las primeras demostraciones populares de lo que puede conseguirse con aparatos de realidad aumentada y con el creciente perfeccionamiento de la superposición de capas virtuales sobre la experiencia real.

Mi mascota virtual

001-222 50 ideas digital.indd 193 22/02/2012 16:12:31

194 darformaalfuturodigital

Las técnicas que sostienen estos procesos están muy relacionadas con las que se utilizan de hecho para aumentar nuestra experiencia de algo que vivimos directamente, más que a través de la televisión o del ordenador en casa. De hecho, el aumento más moderno se apoya en la réplica del mismo tipo de efectos en movimiento, a través de la pantalla o de un dispositivo móvil... pero uno que, esencialmente, sea capaz de tomar en cuenta su propia ubicación y movimientos en cualquier momento.

Poder móvil Es una combinación de hardware y software que hoy día convierte la realidad aumentada en una posibilidad extendi-da: las pantallas visuales, las capacidades y los sensores de captación de movimiento, los GPS, los procesadores rápidos, las cámaras de input

visual y los programas sofisticados para integrarlo todo. En los últimos años, estas tecnologías no solo se han desarrollado lo bastante como para que su uso se haya extendido, sino que casi todos los smartphones las incorporan, convirtiéndolos en plataformas ideales para el uso de las tecnologías de realidad aumentada.

Un ejemplo que combina muchas de estas funciones es una aplicación

de smartphone anunciada como el primer «navegador de realidad au-mentada» del mundo, llamada Layar, que precisa tan solo que el usua-rio enfoque la cámara del teléfono hacia una calle y ofrece al instante información sobre restaurantes, instrucciones, lugares de interés turísti-co o histórico, sobreimpresa en la imagen de la pantalla, guiada por GPS y por un programa de reconocimiento visual y de movimiento.

Otros interfaces Las pantallas móviles son de lejos la posibilidad más extendida para la realidad aumentada a corto plazo, pero hay dos tipos más de interfaz que también tienen un gran potencial. El primero son los dispositivos head mounted, a menudo en forma de gafas o pro-tectores oculares capaces de registrar el movimiento del usuario y so-breimprimir información sobre su visión del mundo. Eso ofrece una experiencia mucho más exhaustiva que una pantalla manual y, aunque de momento es más caro y engorroso, ya empieza a utilizarse bastante para conducir vehículos especializados, como el equipamiento militar.

La otra opción principal de interfaz se sirve de un proyector para re-vertir el proceso de aumento: en vez de que el usuario vea datos sobre-impresos a la realidad en una pantalla, se proyecta una capa aumenta-da sobre los objetos del mundo real. Esta tecnología se aplica más en localizaciones concretas y con grupos de personas que para particula-res individuales.

«El dispositivo más perfecto sería, por

supuesto, una sala en la que

el ordenador pudiera controlar la existencia

de la materia.»ivansutherland

001-222 50 ideas digital.indd 194 22/02/2012 16:12:31

195 realidadaumentada

Hacer que un entorno reaccione a las acciones de las personas dentro del mismo a través de la proyección de realidad aumentada es, entre otras cosas, una técnica con un enorme potencial para crear simula-ciones y experiencias multiusuario realmente envolventes. El poten-cial comercial de tales técnicas para la publicidad y las proyecciones en tiendas y negocios es enorme, como también lo es la combinación de tales aumentos con la tecnología smart, capaz de identificar a los individuos y adónde miran, adaptando el material aumentado que muestra a cada espectador que pase.

Mientras, en el campo de la investigación científica, la arquitectura y muchos otros, la oportunidad de que equipos de personas exploren proyecciones tridimensionales de proyectos en espacios reales ofrece una nueva y tentadora herramienta para el análisis... con un poten-cial parecido para transformar las posibilidades de ocio y de función pública. El holodeck (el salón holograma) de Star Trek sigue quedando algo lejos, pero ya no es totalmente un asunto de ciencia ficción.

La idea en síntesis:añadir una capa de 

realidad digital encima del mundo físico

Los dispositivos head-up o HUD nacieron como tecnología militar diseñada para permitir a los pilotos mirar las lecturas del instrumental sin quitar la vista de su objetivo: la información sobre rumbo y velocidad se puede proyectar, por ejemplo, en el parabrisas de un avión, eliminando la necesidad de bajar la vista a los instrumentos en momentos de mucha tensión. Tales técnicas se incorporaban normalmente en los vehículos militares hacia la década de 1960, y se extendieron a los vehículos comerciales hacia los años setenta. Pero no fue hasta la edad de los videojuegos cuando los ciudadanos de a pie empezaron a ver tales tecnologías, con los juegos tendiendo

necesariamente a mostrar información detallada sobre un personaje virtual impresa en la pantalla encima de una vista del mundo del juego. Hoy día, gracias en parte a innovaciones lideradas por la industria del juego, el arte de crear HUD efectivos se ha refinado muchísimo, con sofisticadas pantallas de realidad aumentada superponiéndose a compleja información en tiempo real sobre el mundo en cualquier ámbito, desde las gafas de esquí y las de buceo, hasta los parabrisas y, de manera experimental, los lentes de contacto, y potencialmente proyecciones directas en la retina de los ojos de las personas.

¡Mucho ojo!

001-222 50 ideas digital.indd 195 22/02/2012 16:12:32

196 darformaalfuturodigital

La convergencia en tecnología suele ocurrir cuando para el consumi-dor representa una ventaja disponer de múltiples funciones a través de un solo dispositivo o aplicación. Los teléfonos móviles modernos son un buen ejemplo de ello, ya que han ido adoptando cada vez más las funciones no solo de teléfono, sino también de ordenador portátil, reproductor de vídeo y audio, navegador de Internet, brújula y GPS, consola de juegos, cámara de foto y vídeo y muchas más cosas adicio-nales. Asimismo, las modernas consolas de juegos ya no son simples máquinas para jugar, sino que también integran muchas de las funcio-nes de un ordenador y de un reproductor de medios doméstico.

La convergencia ha sido un rasgo de la tecnología desde mucho antes de la era digital, junto con la tendencia contrapuesta de la divergen-cia, por la que algunos aparatos tienden a hacerse más especializados con el tiempo. Mientras que, por ejemplo, en los primeros tiempos del automóvil había muy pocas clases de coche disponibles, ahora hay miles, adaptados a necesidades y gustos de todos los tipos. En cambio, la tecnología digital es única en cuanto a que la existencia de medios de masas interactivos distribuidos por Internet han impulsado una cultura de la participación dentro de la que los consumidores cada vez esperan poder consumir todos los distintos medios a través de los mis-mos aparatos. Además, es cada vez más importante para casi todos los servicios que los ciudadanos usan —para el trabajo, para el ocio y para la participación en la vida civil— tener una presencia en este mismo espacio virtual.

El valor de los grupos Una de las presiones más fuertes hacia la convergencia en los medios digitales es la capacidad de las comuni-

48  ConvergenciaLa convergencia ocurre cuando las funciones de tecnologías distintas empiezan a solaparse. Describe el proceso del entrelazamiento cada vez más denso entre tecnologías y redes, como una cantidad cada vez más numerosa de acciones culturales, sociales, comerciales y administrativas que empieza a darse en los espacios digitales.

cronología1994 1997 2005 2006 2008Primera emisión de una televisión online Aparece el primer teléfono con cámara Fundación de la enciclopedia virtual

Star Wars online, la WookiepediaLanzamiento de The Lost Experience

Sale al mercado el iPlayer de la BBC para consolas de juegos

001-222 50 ideas digital.indd 196 22/02/2012 16:12:32

197 convergencia

dades de generar valor. La comunidad re-presentada por los miembros de la red social Facebook, por ejemplo, tiene una fuerza de más de 600 millones de miembros y sigue creciendo... y esto representa un incentivo tremendo para aquellos que lanzan otros grupos y servicios para permitir una fácil in-tegración con los servicios de Facebook.

Asimismo, para la mayoría de personas que diseñan nuevo software y hardware, la presión para asegurar la compatibilidad con las comuni-dades digitales dominantes como las redes sociales es considerable. La gente espera poder utilizar Facebook y Twitter en cualquier smart- phone, tablet u ordenador, igual que esperan cada vez más no estar limitados a un solo formato para la compra de medios: los libros se pueden comprar en papel pero también en Kindle, vía iBooks y otros formatos digitales, las series de TV se pueden adquirir en DVD o Blu-Ray, pero también descargarse de iTunes, verse en streaming en servi-cios de medios de suscripción, o grabarse de la televisión y luego al-macenarse en un disco duro.

«Hay un momento y un lugar para todo, y creo que se llama ficción de fan.»JossWhedon

cronología1994 1997 2005 2006 2008Primera emisión de una televisión online Aparece el primer teléfono con cámara Fundación de la enciclopedia virtual

Star Wars online, la WookiepediaLanzamiento de The Lost Experience

Sale al mercado el iPlayer de la BBC para consolas de juegos

«Cuentos Transmedia» significa el uso de muchos medios distintos para contar una historia o crear una experiencia concreta. Pero también representa un paso más allá de la noción «multimedia» de presentar simplemente diferentes medios en paralelo. A diferencia de ello, se propone crear una experiencia envolvente en la que el público participa activamente en vez de hacer de espectador pasivo, reuniendo las piezas de un cuento de un mundo paralelo o alternativo a partir de elementos incluidos en medios distintos. La serie de

televisión Lost usaba técnicas transmedia para crear un universo ficcional rico alrededor de la narración, incluyendo los sitios web de organizaciones ficticias, una novela publicada atribuida a uno de los personajes de la serie, la venta limitada de una marca de barritas de chocolate de la serie, y la aparición en directo de un personaje de ficción en el congreso Comic-Con. Tales técnicas se pueden considerar parte de una cultura de la convergencia, en la que no solo los medios, sino también el papel de público y creadores son cada vez más difusos.

Cuentos Transmedia

001-222 50 ideas digital.indd 197 22/02/2012 16:12:32

198 darformaalfuturodigital

Este efecto se puede ver en servicios como también en productos físi-cos. Donde organizaciones como los proveedores de televisión por ca-ble antes hacían poco más que ofrecer canales de TV, actualmente el proceso de «paquete» significa que es más probable que ofrezcan am-plios paquetes de servicios con el fin de intentar ganar clientes: desde los servicios de alquiler de línea de teléfono y banda ancha hasta las suscripciones al teléfono móvil. Asimismo, de cadenas como la BBC se espera actualmente que ofrezcan contenidos a través de todos los formatos: radio, TV, servicios de Internet a la carta, streaming en vivo, podcasts, etcétera.

Hay empresas como los supermercados que han llevado este mecanis-mo todavía más lejos, ofreciendo en algunos casos todo, desde banca hasta seguros de viaje y contratos de telefonía. También ofrecen una experiencia de compra de «todo en uno», tanto digital como física.

Problemas de convergencia A medida que las compañías de hardware, software y proveedoras de servicios van adoptando un aba-nico más amplio de funciones, es probable que la calidad vaya decli-nando: que la sustitución de cámaras digitales específicas por los smart-phones signifique una caída en la calidad de las fotos, por ejemplo. También puede llevar a un declive en la capacidad del consumidor a la hora de diferenciar claramente entre distintos productos y servicios.

Un tema más amplio relacionado con este segundo punto es la utiliza-ción de la convergencia por parte de los fabricantes para generar de-manda para las sucesivas generaciones de nuevos productos, que pue-

Desde La Guerra de las Galaxias hasta Buffy, la cazavampiros, los medios más populares tienen más comunidades de fans que nunca. La tecnología digital significa que crear respuestas productivas a las películas, libros, programas de TV y personajes de ficción está al alcance de casi cualquier público lo bastante motivado, con una variedad de opciones a su disposición que va desde la creación de material original hasta la remezcla de contenido existente. Y luego también está la posibilidad de indexar y anotar las obras y los universos ficticios, con la «tradición» virtual colectiva que rodea

fenómenos como La Guerra de las Galaxias, que acumula varios millones de palabras, incluyendo transcripciones y análisis fotograma a fotograma de cada política y producto oficial. Tal cultura existe cada vez más no como entidad separada de las producciones originales, sino como una extensión colaborativa de las mismas, generando y poniendo a prueba ideas para nuevas extensiones de universos imaginativos, y con muchas creaciones actuales que se ven desde el principio como un aspecto esencial del pleno disfrute de una obra de ficción.

El poder de la ficción de los fans

001-222 50 ideas digital.indd 198 22/02/2012 16:12:32

199 convergencia

den ofrecer nuevas capacidades pero que representan una escasa mejora real en cuanto a calidad respecto de tecnologías anteriores más especializadas. Esta presión por entrar en ciclos rápidos de susti-tución puede crear una falsa impresión de repetición para estimular cada vez más ventas... lo que hace que una tecnología aparezca anti-cuada a base de añadir ventajas a un modelo nuevo que no represen-tan ninguna mejora para el usuario.

Sin embargo, hay fuerzas que se resisten a esta dinámica. La conver-gencia de buena parte de los medios de comunicación y de la tecnolo-gía producida masivamente domina la mayor parte del mercado mo-derno digital y, a través de una combinación de economías de escala y facilidad de acceso a los mercados, ha eliminado de la partida a mu-chos de los jugadores medianos. Pero en el lado especializado del es-pectro, la demanda de productos nicho y de tiendas especializadas si-gue siendo mayor que nunca, puesto que estos pueden hacer virtud de la resistencia a la convergencia, elaborando productos hechos a medi-da de cada tarea y consumidor particular.

Además, la naturaleza cada vez más participativa de la cultura de fans y consumidores significa que los fabricantes modernos se esfuerzan a menudo por distanciarse de los servicios o productos mediocres, y que los servicios digitales ofrecen mucha información a los consumidores a base de comparación, crítica y debate. En este sentido, los usos más exitosos de la convergencia implican no solo la combinación de bie-nes y servicios, sino también la de las reacciones de clientes y público en el propio proceso de creación. Dentro de los nuevos medios, los lí-mites entre creadores, productores, críticos, consumidores, profesio-nales y aficionados son cada vez más difusos, y esto da lugar a nuevas relaciones, que por encima de todo son dinámicas, y definidas más por los papeles particulares desempeñados en un momento dado que por po-siciones fijadas de manera permanente.

La idea en síntesis:las viejas barreras 

están cayendo rápidamente

«El culto se ha convertido en la manera normal de disfrutar de las películas.»

umbertoeco

001-222 50 ideas digital.indd 199 22/02/2012 16:12:32

200 darformaalfuturodigital

La frase «Internet de las cosas» se acuñó por primera vez hacia 1999, pero hasta hace poco no se ha considerado como una posibilidad con-creta. El declive en el coste de chips y redes informáticos potentes ha coincidido con mejoras en el tipo de trabajo en red necesario para esta nueva noción de un Internet formado por sensores capaces de configu-rarse sobre una base ad hoc. Actualmente, una combinación de tecno-logías ha empezado a permitir el despliegue comercial de tales ideas en una escala limitada. Estas tecnologías incluyen etiquetas electrónicas que se pueden leer a corta distancia por señales inalámbricas, comuni-caciones inalámbricas de corto alcance entre aparatos, redes de senso-res dentro de estructuras y técnicas de localización en tiempo real que pueden usar etiquetas inalámbricas para determinar la localización de objetos dentro de un espacio en cualquier momento concreto.

El etiquetado inalámbrico es un invento reciente especialmente im-portante en este terreno. En los últimos años, la identificación de fre-cuencia de radio (RFID) ha avanzado considerablemente, con la lle-gada de chips accesibles y muy fiables que se pueden simplemente pegar a objetos cotidianos para identificarlos individualmente —de manera muy parecida a como los ordenadores se identifican mediante

49  El Internet de las cosas

En el momento actual, Internet consiste en conexiones entre ordenadores especializados y dispositivos informáticos. Pero la idea del «Internet de las cosas» especula en cuanto a lo que sería posible si unos chips informáticos inteligentes y en red se incorporaran a un número cada vez mayor de objetos fabricados y lugares... desde las instalaciones eléctricas hasta los electrodomésticos caseros, las calles, los edificios y hasta las prendas de vestir. Tal avance conllevaría la posibilidad de un conocimiento preciso e interconectado sobre todos los aspectos de la vida, y de herramientas muy potentes para la comprensión y el ajuste de nuestro uso de los recursos.

cronología1997 1999 2001 2005 2010El metro de Hong Kong introduce las tarjetas inteligentes inalámbricas

Se acuña el término «Internet de las cosas»

Algunas bibliotecas holandesas empiezan a usar el etiquetado inalámbrico

Los casinos de Las Vegas empiezan a usar los chips de etiquetado inalámbrico

Crece enormemente la fabricación de chips RFID

001-222 50 ideas digital.indd 200 22/02/2012 16:12:32

201 elinternetdelascosas

su dirección IP— y rastrear sus movimientos. La mayor aplicación ac-tual de tales etiquetas ocurre en los contenedores de transporte marí-timo, millones de los cuales se pueden identificar actualmente y ras-trear mediante este sistema.

Viajes y ciudades Uno de los campos donde la aplicación de esta tecnología es más evidente es el transporte. La información detallada y en tiempo real sobre las localizaciones relativas a vehículos podría te-ner un impacto profundo sobre cualquier aspecto, desde los horarios y la gestión del transporte público hasta la provisión de información lo-cal contextualizada dentro de vehículos individualizados... desde co-ches hasta bicicletas.

Como ocurre con el Internet actual, el poder de tales redes contiene un aumento potencial exponencial a medida que se van interconec-tando más objetos. Etiquetar edificios e instalaciones urbanas para que puedan identificarse en sus ubicaciones ante cualquiera que se encuentre en estos espacios ofrece la posibilidad de desarrollar redes urbanas inteligentes que comparten información de todos sus elemen-tos, desde la naturaleza y los horarios de un centro comercial hasta los costes relativos y la disponibilidad de servicios comerciales, espacios de estacionamiento disponibles, asientos en el transporte público y productos almacenados en tiendas determinadas.

cronología1997 1999 2001 2005 2010El metro de Hong Kong introduce las tarjetas inteligentes inalámbricas

Se acuña el término «Internet de las cosas»

Algunas bibliotecas holandesas empiezan a usar el etiquetado inalámbrico

Los casinos de Las Vegas empiezan a usar los chips de etiquetado inalámbrico

Crece enormemente la fabricación de chips RFID

Una vez que un hogar o una oficina está equipada con un número suficiente de sensores —que controlan desde la temperatura hasta los niveles de luz en tiempo real—, empieza a ser posible crear un modelo virtual altamente preciso. Las tecnologías que ya se están desarrollando experimentan hoy día con el uso de estos modelos virtuales para permitir a las personas monitorizar y controlar a distancia los elementos de sus casas, despachos y

hasta de lugares públicos. Esto podría convertir en el futuro la monitorización y el ajuste de casi todos los electrodomésticos de la casa en una mera cuestión de acceder a un modelo virtual del edificio desde cualquier lugar del mundo, y de ver en tiempo real los resultados de cambiar los sistemas internos... además de poder configurar notificaciones de cualquier variable que salga de unos parámetros predeterminados.

Control remoto

001-222 50 ideas digital.indd 201 22/02/2012 16:12:32

202 darformaalfuturodigital

Lejos de la ciudad, tales tecnologías tienen el mismo potencial en las actividades industriales y comerciales. Los agricultores, por ejemplo, ya hacen un uso extenso de los sistemas de GPS para los cultivos, el mantenimiento y las cosechas efectivos. Equipados con la siguiente generación de sensores de alta precisión, este proceso podría hacerse mucho más preciso y adaptado a una ubicación geográfica exacta.

Cambio de actitudes Otra posibilidad potente para llevar las redes inteligentes a un número creciente de objetos y actividades co-tidianos es ayudar a la gente a cambiar sus comportamientos, a la luz

de información en tiempo real sobre los efectos de lo que están haciendo y la infor-mación comparativa sobre cómo se com-portan los demás.

En terrenos como el consumo energético, por ejemplo, ya está muy asumido que mos-trar el consumo de energía de una casa o empresa en tiempo real ayuda a que la gen-te sea más consciente del gasto y esté más

dispuesta a racionalizar su uso, y se refleja la bajada instantánea del consumo y gasto minuto a minuto cuando un aparato se apaga o es sustituido por otro más eficiente.

Una interconexión inteligente entre objetos de una casa, y el uso de información comparativa sobre distintos hogares, pueden ayudar tan-to a las personas como a las propias redes inteligentes a «aprender» los unos de los otros sobre tácticas y aparatos efectivos para ahorrar

«El futuro ya está aquí; lo que ocurre es que todavía no se ha repartido de manera

equitativa.»Williamgibson

Mucha gente se muestra ambivalente hacia un aspecto de la introducción de tecnologías «inteligentes» en una serie creciente de objetos: el potencial de respuestas personalizadas para los artículos que identifican a la persona que los usa y de darle una respuesta específica. Esto puede ir desde vallas publicitarias y tiendas que muestran anuncios especializados hasta ofertas de museos y de bibliotecas que muestren automáticamente información vinculada a los intereses manifestados por alguien, o a su historial de lecturas. Para algunos, esta personalización es de agradecer, como algo que refleja que las ciudades se están volviendo realmente «inteligentes» en la manera en que se adaptan a sus ciudadanos; para otros, la pérdida de anonimato y el potencial atentado a la libertad que las tecnologías de rastreo e identificación sugieren es algo a lo que hay que resistirse o que hay que enfocar con una precaución extrema.

Personalización

001-222 50 ideas digital.indd 202 22/02/2012 16:12:32

203 elinternetdelascosas

energía. Asimismo, a nivel regional, las redes de suministro energéti-co inteligente pueden responder a la demanda en tiempo real, con grandes aumentos potenciales de eficiencia y una importante reduc-ción de las posibilidades de apagones.

Automatización El potencial transformador del Internet de las cosas se parece a mucho de lo que ya ha convertido el Internet infor-mático global en algo tan potente: la recogida y el análisis de una enorme cantidad de datos. Pero donde el futuro puede diferenciarse del presente es en la creciente automatización de este proceso de aná-lisis, permitiendo análisis y respuestas rápidas a sistemas complejos que conllevan poca aportación humana directa.

Puede ser posible, por ejemplo, que el sistema energético y de climati-zación de una casa se ajuste automáticamente al número de personas que hay en cada estancia. Un enfoque todavía más radical sería la au-tomatización de muchos aspectos de las tareas industriales y comer-ciales, con vehículos con chips inteligentes, objetos y edificios que «saben» dónde están en relación entre ellos, cuál es su estatus y cuál debe ser la secuencia más eficiente de operaciones.

Como ya ha demostrado el desarrollo de Internet y de la web, el poder de una red crece exponencialmente con su tamaño, y la interco-nexión electrónica de los objetos podría acabar superando la simple automatización hacia nuevos modelos de funcionamiento de econo-mías nacionales y de sistemas de comercio enteros. Tal interconexión parece todavía lejana, pero con unos protocolos lo bastante rigurosos y escalables, y con una tecnología lo bastante asequible y fiable, bue-na parte de la infraestructura podría estar lista más bien dentro de unos años que de unas décadas.

La idea en síntesis:dar a cada parte de la 

realidad una presencia digital

«Será realmente interesante cuando consigamos conectar los datos de otros

objetos vivos a la web.»tomFreeman

001-222 50 ideas digital.indd 203 22/02/2012 16:12:32

204 darformaalfuturodigital

La cantidad de medios consumidos por los habitantes del mundo desarrollado ha ido aumentando regularmente a lo largo de las últi-mas décadas. La juventud estadounidense es un grupo que se acerca a la cima de este hecho, y desde 1999 hay una organización llamada Kaiser Family Foundation que informa periódicamente de las pautas de uso mediático entre los americanos de entre 8 y 18 años. En 1999, el uso de medios total diario de este grupo se calculaba en la considerable cifra de 6 horas y 19 minutos diarios. El informe más reciente, publicado a principios de 2010, mostraba un aumento que los propios autores del informe admitieron encontrar asombroso: un uso medio de 7 horas y 38 minutos diarios, que aumentaba a un to-tal de 10 horas y 45 minutos si se tenían en cuenta la multiplicidad de tareas.

El aumento se atribuía en buena parte a «una explosión de los medios móviles y en la red», con alrededor de un 20 por 100 del consumo de medios hecho a través de dispositivos móviles... un número que está llamado a crecer. Lo que eso significa para el conjunto de la sociedad es extremamente difícil de determinar, pero hay muchos pensadores y críticos que han especulado respecto a sus efectos negativos y positi-vos.

50  La distracción¿Qué efecto tienen el derrame y la multiplicidad de medios digitales en nuestra mente? Cuanta más parte del día se invierte en el uso de algún tipo de medio —en particular los medios digitales o virtuales, con su potencial de ofrecer mensajes rápidos y en constante cambio—, las personas sentimos una preocupación creciente por los efectos a largo plazo que eso provoca en la mente humana. ¿Significa la cultura digital una generalización inevitable de la distracción entre sus usuarios? La reducción de la capacidad de atención, la pérdida de la capacidad de seguir un hilo argumental de pensamiento continuo. En este terreno no hay respuestas claras, pero sí muchas preguntas.

cronología2001 2004 2008 2010Se acuña el término nativos digitales Se acuña el término life hacking Primera invocación del concepto

pico de atenciónPublicación de The Shallows (publicado como Superficiales en español)

001-222 50 ideas digital.indd 204 22/02/2012 16:12:32

205 ladistracción

Superficiales Superficiales es el tí-tulo de un libro de 2010 del autor es-tadounidense Nicholas Carr, que afirma que las antiguas formas «linea-les» de pensamiento están siendo al-teradas radicalmente con el uso de los medios digitales interactivos y por la red en particular, lo que lleva a «una nueva mentalidad que quiere y necesita absorber y repartir informa-ción a ráfagas breves, inconexas, a menudo solapadas... y cuanto más rápidas, mejor».

Este argumento recoge muchos temores articulados infinidad de veces en campos que van desde la educación hasta la neurociencia, que sugie-ren que los medios digitales pueden estimular patrones de pensamiento y de participación que resultan superficiales y efímeros, en vez de ser pro-fundos y empáticos. La científica británica Susan Greenfield, por ejem-plo, ha expresado su preocupación por cómo la manera en que activida-des como navegar por la red gratifican al cerebro pueden, con el tiempo, conducir a una disminución del desarrollo emocional y a un estado mental infantil preocupado por conseguir recompensas a corto plazo.

«Para el hombre tribal, el espacio era el misterio incontrolable. Para el hombre tecnológico, es el tiempo el que desempeña este papel.»marshallmcluhan

cronología2001 2004 2008 2010Se acuña el término nativos digitales Se acuña el término life hacking Primera invocación del concepto

pico de atenciónPublicación de The Shallows (publicado como Superficiales en español)

Creada en la década de 1980, la técnica pomodoro es un ejemplo popular de método de gestión del tiempo que ha demostrado ser un antídoto popular a elementos de distracción en terrenos como el desarrollo del software. La técnica se ha bautizado con el nombre italiano de tomate, porque es también el nombre de una popular serie de cronómetros de cocina con forma de tomate. Usar esta técnica significa decidir hacer una única tarea, poner el cronómetro a 25 minutos y luego

trabajar ininterrumpidamente durante este tiempo, seguido de una pausa de cinco minutos, para luego repetir el ciclo tres veces más. Teniendo en cuenta el potencial para la distracción en los medios digitales, aprender estas técnicas de gestión del tiempo y de concentración se está convirtiendo en una disciplina importante del siglo xxi... un conjunto de técnicas a veces conocida como life hacking por los programadores, para quienes la sobrecarga de información es un problema constante.

La técnica pomodoro

001-222 50 ideas digital.indd 205 22/02/2012 16:12:32

206 darformaalfuturodigital

Determinismo Muchos de los argumentos que expresan temores por la «distracción» se pueden considerar tecnológicamente determi-nistas, en el sentido de que asumen que la tecnología tiene la capaci-dad de determinar los valores culturales, sociales y hasta intelectuales de una sociedad. En cambio, están los que afirman que caracterizar las interacciones digitales como superficiales y propensas a distraer es a menudo un malentendido, y que es mejor pensar en ellas como la in-teracción con sistemas cada vez más complejos.

Este argumento se exponía en 2005 en un libro del escritor científico estadounidense Steven Johnson. El libro, Everything Bad is Good for You, afirma que «la cultura popular, de hecho, nos está volviendo más listos», como se afirma en el subtítulo, y que mucha de la cultura de masas contemporánea, desde los videojuegos hasta los navegadores y las series de TV, muestran una complejidad creciente que requiere una concentración y una participación mucho mayor del público que la cultura de masas anterior a la era digital.

La tesis de Johnson recoge las voces de aquellos que ven en el uso cada vez más omnipresente y solapado de los medios digitales no un final del pensamiento estructurado, sino un nuevo conjunto de sofis-ticación creciente de técnicas de «pensamiento de sistemas» y multi-tarea. Los usuarios se acostumbran a narrativas con muchos hilos, re-solviendo las dinámicas de los sistemas a partir de pistas dispares e interactuando de una forma no lineal que es más propia del proceso de experimentación científica que de un proceso pasivo que suponga una escasa concentración.

Agnósticos de las plataformas Un rasgo notable de los hábi-tos relacionados con los medios digitales es el grado creciente en el que la gente se convierte en «agnósticos de las plataformas»; es decir, no atados a ningún soporte ni plataforma en particular para acceder a un contenido concreto. Los programas de televisión y las películas, por ejemplo, se miran no solo a través de monitores de televisión, sino también en teléfonos móviles, en consolas de juegos, en ordena-dores de sobremesa, en portátiles y, en realidad, en cualquier disposi-tivo que convenga en un momento concreto.

«A medida que confiamos más y más en los ordenadores para que medien en nuestra comprensión del mundo, es

nuestra inteligencia la que se va aplanando cada vez más hasta devenir

inteligencia artificial.»nicholascarr

001-222 50 ideas digital.indd 206 22/02/2012 16:12:32

207 ladistracción

Entre otras cosas, eso significa que todos los medios pueden verse cada vez más como competidores entre ellos por la atención en los formatos digitales: los libros electrónicos se pueden leer en la misma pantalla que alguien usa para navegar por la red, mirar DVD, enviar y recibir e-mails, usar páginas de redes sociales y trabajar en proyectos laborales. En este sentido, la distracción es fácil de entender, como lo es la presión que sufren los medios para atrapar la atención de los usuarios al instante en vez de dar por sentada la concentración.

Pico de atención Teniendo en cuenta la enorme cantidad de tiempo dedicado al uso de medios durante un día tipo para muchas personas, es evidente que el factor limitador que está actuando ya no es el gasto, ni la dificultad de obtener contenido, sino el tiempo. La teoría del «pico de atención» lleva esto un poco más lejos y observa que para la gente como el adolescente estadounidense medio, descrito por la Kaiser Family Foundation, actualmente ya no queda casi tiem-po libre en el día para que los medios puedan ocuparlo: la atención se está aproximando a su punto álgido, más allá del cual ya no queda nada más por ofrecer.

La idea en síntesis:¿está Google 

haciéndonos más tontos?

Con la expansión de Internet no solo a los aparatos enchufados, sino también a los inalámbricos u móviles, estar «conectado» a una red digital se está convirtiendo en el estado por defecto de cada vez más gente: más parte de la vida se pasa en algún tipo de estado online que lo contrario. En respuesta a ello, muchas organizaciones e individuos empiezan a pensar en introducir tiempo «desconectados» en el trabajo: mañanas en las que se prohíbe el uso del e-mail, por ejemplo, o congresos en los que se impide el uso de los

aparatos móviles o de las redes sociales como Twitter y Facebook, con el fin de asegurar la plena atención en lo que está pasando en la realidad del momento. A medida que se sigue desarrollando la cultura digital, es probable que el arte de también lo hará el arte de desconectar, con lo que la facilidad de las comunicaciones y las multitareas, paradójicamente, darán más valor a los encuentros personales, en vivo, y a los acontecimientos no registrados que ocurren «fuera de la red».

Desconectar

001-222 50 ideas digital.indd 207 22/02/2012 16:12:32

208 glosario

GlosarioAJAX (Asynchronous JavaScript and XML) Grupo de tecnologías para el desarrollo de contenidos web ricos e interactivos.

Ataque DoS (Denial-of-Service) Ataque con fuerza bruta a un sitio web efectuado por hackers, sobre-cargándolo con peticiones de da-tos y, así, impidiéndole funcionar.

Botnet Red de ordenadores «zom-bi» bajo control de un hacker.

Buscador Sitio web que permite al usuario buscar en el directorio de contenidos de la red.

Cliente Ordenador o programa que recibe software de un orde-nador «servidor» central.

Cookies Pequeños fragmentos de datos almacenados en un ordena-dor por un navegador para permi-tir a un sitio web desempeñar al-gunas funciones.

Cortafuegos Algo que protege al ordenador de ser atacado por hackers.

Dirección IP (de Protocolo de In-ternet) Forma numérica básica de cuatro números separados por puntos que define la ubicación de distintos recursos de Internet.

DNS (Domain Name System) Sistema básico que traduce las di-recciones web de su forma cono-cida en palabras a direcciones IP (Protocolo de Internet).

Dominio Subdivisión particular de Internet perteneciente a una persona o empresa.

Ethernet El estándar más común para redes locales.

FTP (File Transfer Protocol) Una de las maneras más básicas de descargar archivos por Internet.

Hiperenlace Enlace que se puede seleccionar para llevar al usuario a otro sitio de la red.

Hipertexto Texto en la red que contiene hiperenlaces.

HTML (HyperText Markup Language) El lenguaje codificado en el que se basa la World Wide Web, que indica a los navegado-res el aspecto que han de tener y cómo deben funcionar las páginas web.

ISP (Proveedor de Servicio de Internet) Empresa que ofrece ac-ceso a Internet al público gene-ral a cambio de una tarifa.

Java Lenguaje de programación capaz de crear programas que fun-cionan dentro de los navegadores.

JavaScript Técnica relacionada con el Java que facilita la crea-ción de elementos interactivos dentro de sitios web.

Navegador Programa para usar la World Wide Web.

Paquete Pequeño fragmento de información dentro del cual se desmenuzan datos para ser trans-feridos por Internet.

Peer-to-peer Descripción de una conexión directa entre dos orde-nadores, en vez de una conexión

001-222 50 ideas digital.indd 208 22/02/2012 16:12:33

209glosario

en la que media un servicio cen-tral.

Plug-in Pequeño programa que «conecta» con un navegador para permitirle realizar funciones adi-cionales, como reproducir música o juegos concretos

Protocolo de Internet (IP) Pro-tocolo básico que define la asig-nación de direcciones únicas en Internet para recursos distintos: la versión más reciente es la ver-sión seis.

RSS (Really Simple Syndica-tion) Técnica de difusión de contenidos que facilita que los usuarios de la red reciban actua-lizaciones cada vez que aparecen nuevos contenidos en una pági-na o un blog.

Servidor Ordenador que realiza tareas como albergar un sitio web y al que acceden ordenado-

res «cliente» remotos que desean usar el servicio que ofrece.

Servidor de nombres Servidor cuya función consiste en traducir las palabras de direcciones de In-ternet a números de direcciones IP.

SSL (Secure Sockets Layer) Téc-nica de encriptación de la infor-mación enviada por Internet para que no pueda ser fisgoneada por los hackers.

TCP/IP (Transmision Control Protocol/Internet Protocol) La com-binación básica de protocolos de comunicación que subyace en In-ternet tal y como lo conocemos.

XML (Extensible Markup Lan-guage) Extensión del HTML que permite a una página web ense-ñar su contenido más fácilmente utilizando una variedad de distin-tos tipos de hardware.

001-222 50 ideas digital.indd 209 22/02/2012 16:12:33

209g

001-222 50 ideas digital.indd 209 22/02/2012 16:12:33

50 cosas que hay que saber sobre mundo digital Tom Chatfield

No se permite la reproducción total o parcial de este libro, ni su incorporación a un sistema informático, ni su transmisión en cualquier forma o por cualquier medio, sea éste electrónico, mecánico, por fotocopia, por grabación u otros métodos, sin el permiso previo y por escrito del editor. La infracción de los derechos mencionados puede ser constitutiva de delito contra la propiedad intelectual (Art. 270 y siguientes del Código Penal) Título original: 50 digital ideas you really need to know © del diseño de la portada, Compañía, 2012 © Tom Chatfield, 2011 © de la traducción, Mar Vidal, 2011 © Editorial Planeta, S. A., 2012 Editorial Ariel es un sello editorial de Planeta, S. A. Av. Diagonal, 662-664, 08034 Barcelona (España) www.planetadelibros.com Primera edición en libro electrónico (PDF): abril 2012 ISBN: 978-84-344-0084-9 (PDF) Conversión a libro electrónico: Newcomlab, S. L. L. www.newcomlab.com