Noticia
13 noviembre, 2018

“Los dirigentes de las grandes tecnológicas se creen más listos que los demás”

El profesor de Harvard cree que las opcionespara que Internet sea un motor positivo son menores que hace diez años

Jonathan Zittrain es director del Centro Berkman Klein de Internet y Sociedad en la Universidad de Harvard, cuya labor se centra en las consecuencias de Internet. Zittrain (Pittsburg, EE UU, 1969) es crítico con el presente de las grandes tecnológicas y cree que hoy se viven los cambios tecnológicos con una "vaga sensación de perplejidad", dice. En 2008 escribió el libro El futuro de internet. Y cómo detenerlo. Si escribiera una secuela lo titularía "Bueno, lo intentamos", cree ahora Zittrain.

Pregunta. ¿Qué ha ido mal?

Respuesta. Primero, no hay un chorro constante de nuevas empresas, de gente en sótanos inventando cosas nuevas, sino que los tipos que llegaron primero se han quedado y se han hecho fuertes. Segundo, tener redes disponibles y sensores muy baratos implica que pueden recopilarse datos a todas horas. Tercero, con herramientas que no son especialmente nuevas pero que ahora tienen los datos para ser mucho más afiladas, pueden hacerse juicios sobre gente y descubrir cómo intervenir en sus vidas de maneras que antes eran desconocidas.

P. No todo ha sido terrible en estos años.

R. Al menos no ocurrieron algunas cosas que nos preocupaban. Por ejemplo, con el copyright.

P. Napster, la web para intercambiar archivos, murió.

"Hoy me ofrecen un préstamo a un 25% de interés semanal porque me identifican como alguien emocionalmente delicado"

R. Por ejemplo. Fue interesante ver en el copyright la guerra por un lado entre la tesis "con Napster todo es incontrolable y todas las industrias de contenido van a la bancarrota" y por otro "todo será restringido por la tecnología, nadie podrá hacer una copia o prestar nada". Es interesante ver que en estos 10 años esta guerra se ha diluido. Ahora por algo de dinero o por mirar un anuncio, puedes ver lo que quieras. Así que algunas de nuestras preocupaciones sobre la libertad de la mente, que al final es como podría describirse el copyright, no llegaron a ocurrir.

P. Entre los problemas, está la privacidad.

R. Es algo que hace 10 años no me preocupaba tanto: que una empresa supiera que yo tenía un perro y me mostrara anuncios de comida de perros en lugar de gatos me parecía indoloro. Pero hoy me ofrecen un préstamo a un 25% de interés semanal porque me identifican como alguien emocionalmente delicado, que acaba de perder dinero, y pueden averiguar cuándo atacar y cuando atacan solo lo hacen contra mí.

P. ¿Estamos seguros de que esto ocurre?

R. Absolutamente. Hace 10 años yo apoyaba la posición de las grandes plataformas cuando decían 'somos solo ventanas a Internet, no nos culpéis si no os gusta lo que veis'. Aún hay algo de cierto, pero cada vez más no son meras ventanas. Se han convertido en tan grandes que deciden qué fragmentos enseñan. Buscamos menos algo específico a través de preguntas y nos pasamos más rato recibiendo consejos no solicitados de Siri, Google Assistant o Alexa, que básicamente se nos presentan como "amigos", nos dicen cuál es el mejor camino desde aquí al cine, y cuando dicen "mejor" no sabemos si lo es porque pasa al lado de la pizzería que les ofrece algo por llevarme hasta su puerta.

P. Ya podría estar pasando.

"Dos veces por semana el coche aparecerá en tu casa y te llevará a una 'aventura esponsorizada"

R. Es útil pensar qué pasaría si el modelo de negocio online pasara al real. El gran reto de los coches autónomos es lograr uno que conduzca bien. Pero llegará el momento en que deberán preguntarse cómo se paga. Si usas el modelo de economía online sería así: puedes subir en un coche autónomo, es gratis, pero quizá pare en un restaurante de comida rápida antes de llegar a tu destino y espere allí durante 10 minutos. Puedes seguir sentado en el coche o salir, estirar las piernas y comprar una hamburguesa. Si en cambio tienes prisa, está bien, no hay problema, pero para mantener tu suscripción, dos veces por semana el coche aparecerá en tu casa y te llevará a una 'aventura esponsorizada'. Esto son cosas que no tienen hoy una analogía en el mundo real, pero la inteligencia artificial y big data las harán posibles. ¿Queremos ese mundo? Creo que es justo hacernos esas preguntas ahora, en lugar de decir: 'Vamos a construirlo y ya veremos'.

P. Ha planteado esta duda: ¿Qué pasa si la policía emite una orden de búsqueda de alguien que va dentro de un coche autónomo: el coche debe cerrar puertas e ir a la comisaría o no?

R. Está bien preguntarse eso. Es un modo de mostrarnos que esto no es solo una sustitución para conductores, sino que abre nuevas posibilidades. En ese sentido es excitante. Pero ¿cómo gobernamos todo esto? Podría ser lo que llamaba en mi libro "el principio de procrastinación". La teoría era no intentar resolver cada problema desde ya, sino dejar desarrollarse a la tecnología y resolverlo entonces. Para mí era entonces un buen principio, pero ahora se ve que es muy difícil porque la distancia entre es demasiado pronto para saber y ya es demasiado tarde para hacer algo es muy breve. Al menos debemos tener un debate público donde se vean estas opciones. Veríamos que al afectar al mundo real de repente un montón de barreras para la regulación que veíamos en internet se caen.

P. Las plataformas ya deciden si vemos más o menos desinformación. ¿Algún remedio?

"Que una plataforma determine lo que experimentan 2.000 millones de personas es una responsabilidad demasiado grande"

R. Las respuestas que parecen más obvias son medicinas tan fuertes que pueden ser más peligrosas que la enfermedad. Que una plataforma determine lo que experimentan 2.000 millones de personas en todo el mundo es una responsabilidad demasiado grande, sin importar cómo de nobles intenten ser. Necesitamos cambiar la premisa de la pregunta. Podría ser algo tan dramático como reventar la empresa y crear un montón más pequeñas, podría ser que la compañía abriera capas de su funcionamiento para que cualquiera pudiera escribir una receta para crear un newsfeed –lo que vemos–, en Facebook. No depende solo de Facebook lo que hay en mi pantalla. Eso podría llevar a que la gente escogiera recetas que refuercen sus opiniones, lo que podría ser un peligro, pero sería menor que el peligro de que todos veamos el mundo por un mismo lugar.

P. Y con sus algoritmos.

R. La tecnología debe ser leal a la gente y no ofrecerle una hamburguesa y patatas fritas cada 5 segundos. He trabajado en una teoría con Jack Balkin de Yale sobre 'fiduciarios de la información'. Es una palabra exagerada, pero significa que cuando confías tanta información a una de estas plataformas, deben serte leales. Si tu interés entra en conflicto con el suyo, el tuyo debe dominar. Eso significa que pueden mostrarte anuncios, pero no anuncios que te perjudiquen.

P. Es director del Berkman Institute. Se dedica a observar internet. Cuando va a Silicon Valley, ¿cómo te tratan?

R. No tengo la sensación de que los dirigentes allí piensen que yo tenga algo que contarles que ellos no hayan pensado ya antes. Se sientan en una sala de reuniones y se creen más listos. Pero saben que tienen un problema persistente de relaciones públicas que está creciendo en una posible ola que les gustaría evitar. Ven la regulación europea como algo que puede forzarles a ver que la regulación puede existir y no ser catastrófica. Buscan maneras de adelantarse a estos asuntos antes que esperar a liarla aún más y ser regulados. Entonces pueden darse cuenta de que no necesitamos una nueva función en su software sino que se necesita una nueva dimensión política, cultural, legal para lo que hacen. Les he visto más abiertos a ideas y sugerencias en los últimos seis meses que en los anteriores cinco años.

P. ¿A las grandes compañías?

R. Sí, las grandes tecnológicas tienen resaca como resultado de su expansión. Tienen también ahora muchísimo dinero y quieren ser capaces de convertir esa riqueza en un mejor ambiente y algunos de ellos de hecho se dicen a sí mismos que quieren mejorar el mundo.

Fuente: EL PAÍS - EDUCACIÓN