Hola, ¿qué estás buscando?

de resultados

No se ha encontrado ningún resultado

Ver más

Tal día como hoy Facebook manipuló tus recuerdos

Clara Paolini

Foto: Tom Sodoge
Unplash

Cuando aparecen fotos del pasado en nuestro muro de Facebook, ¿fortalecemos una memoria o la tergiversamos?, ¿puede el cerebro modificar la forma en la que recordamos los eventos a través de inocentes publicaciones?, ¿qué efecto tienen las redes sociales en la forma con la que experimentamos nostalgia?, ¿conseguirán los recuerdos digitales llegar a hackear la forma en la que pensamos? Ante las incógnitas, la ciencia responde.

“Mira, hace unos años pasó esto o lo otro”; esa es la idea superficial e inocente que ofrece Facebook cada vez que hace emerger en tu móvil o ordenador el aviso “Tal día
como hoy”. Son tus recuerdos, sí, pero en un curioso recipiente ajeno al espacio mental o físico donde solían depositarse antaño. No es releer un diario personal ni pasar las páginas del álbum de fotos familiar. Tampoco es hacer memoria para rescatar eventos depositados en cajones del cerebro. Es otra cosa, más novedosa, antinatural, omnipresente y puede que mucho menos inofensiva de lo que pudiera parecer.

Los recuerdos filtrados a través de redes sociales, recuperan momentos fieles a la realidad, pero también son capaces de contribuir a reinventar lo vivido. Tal y como
señala la psicóloga Julia Shaw en un artículo publicado en Scientific American, Facebook no sólo se está apropiando de nuestras imágenes y comentarios, sino que también está cambiando activamente lo que recordamos en la vida real. Y no sólo eso: mientras Facebook aprende, nosotros olvidamos.

Tal día como hoy Facebook manipuló tus recuerdos 1
Sticker Mule / Unsplash

En el baúl de los recuerdos, el muro es el rey

Según la revista Wired tu cerebro no contiene memorias sino que tu cerebro es, en esencia, tales memorias recopiladas, codificadas e interconectadas. Es en su capacidad de crear mosaicos de amplias impresiones en apenas milisegundos donde se sustenta su funcionamiento. Como clave indispensable del pensamiento racional, preguntarse sobre cómo establecemos la relevancia de cada recuerdo es un reto indispensable para entender nuestra forma de racionalizar la realidad. ¿Qué es lo primero que el cerebro recupera al poner en marcha el mecanismo de la memoria? Para bien o para mal, los posts de Facebook aparecen en el primer puesto.

En este hecho influyen dos aspectos clave: En primer lugar, las imágenes se recuerdan mejor que las palabras, y al traer memorias a la mente son éstas las que emergen en primera instancia con mayor facilidad. En segundo lugar, la ciencia ha demostrado que los humanos mostramos una mayor predisposición a recordar los buenos momentos que los malos. Teniendo en cuenta que las memorias de Facebook son principalmente imágenes de buenos momentos, se adivina una conclusión: tendremos más facilidad de recordar aquello que hayamos publicado en Facebook. Numerosos estudios así lo han demostrado: lo compartido en redes sociales se retiene mejor en el cerebro y las publicaciones en la red social llegan a ser más memorables y fáciles de recordar que incluso una cara.

Tal día como hoy Facebook manipuló tus recuerdos 2
Rachael Crowe / Unsplash

Realidad filtrada y memorias falsas

Según la ciencia, cada vez recuperamos un recuerdo, los rastros de dicha memoria en el cerebro se vuelven flexibles. ¿Podemos entonces distorsionar lo vivido hasta la
invención? Daniel Schacter, profesor de psicología en la Universidad de Harvard, ya demostró allá en los 90 que es posible implantar falsos recuerdos mediante las
imágenes. En sus experimentos, los sujetos a los que había enseñado fotografías aseguraban recordar eventos que en realidad no habían vivido. Por otro lado, el
psicólogo descubrió que cuando una persona observa una imagen no sólo se refuerza la memoria de ese evento en particular, sino que al mismo tiempo se deterioran el
resto de recuerdos de eventos que también ocurrieron pero para los que no hay imágenes.

Según los hallazgos de Schacter, las intrusivas notificaciones de Facebook recordándonos ciertos eventos específicos de forma constante tienen el potencial de
distorsionar profundamente la realidad. No sólo podemos llegar a recordar noticias falsas como hechos fehacientes, alterando de forma irreversible la memoria colectiva, sino que a nivel personal, nuestra biografía quedará distorsionada por la representación parcial y filtrada de lo vivido.

Mientras fortalecemos un aspecto concreto del recuerdo todo lo que rodeaba al mismo se debilita, y si aquello que publicamos enmascara en cierta medida la realidad, corremos el peligro de recordar falsedades. La memoria distorsiona de por sí los eventos quedándose con los más positivo, por lo que Facebook, un contendedor donde la realidad se filtra y altera de antemano, no hace más que aumentar el efecto. El recuerdo queda así doblemente manipulado por tu propio cerebro y por el efecto amplificador de la red social.

Tal día como hoy Facebook manipuló tus recuerdos 3
Annie Spratt / Unsplash

Al permitir que Facebook elija los eventos supuestamente más significativos en nuestras vidas, los recuerdos que el algoritmo ignora se sacrifican hacia el olvido. Si
no lo compartiste, el recuerdo no existe en la red y como consecuencia, se vislumbra la posibilidad de que los olvidemos con mayor facilidad.

Memoria selectiva a base de algoritmos

El momento en el que por primera vez viste la cara de tu hijo o sobrino, el día que te enamoraste, o aquel instante en el que te percataste de estar viviendo una decisión
clave en tu biografía. Son recuerdos que ni las palabras ni las imágenes consiguen capturar con fidelidad, porque al reconstruir tales eventos en la mente aparecen los olores, los colores, el tacto y la forma en que todo aquello te hizo sentir. Por supuesto nada de esto aparece en el muro de la plataforma y lo más relevante se omite a favor de lo superficial. Nos quedamos con la imagen preseleccionada, parcial y probablemente irreal que un día decidimos publicar.

Obviamente esto no quiere decir que por recordar con mayor facilidad las imágenes brindadas por la plataforma vayamos a perder el resto de nuestras memorias, pero. los algoritmos no tienen empatía, y a parte de contabilizar y medir, resulta complicado que verdaderamente “entiendan” la importancia de lo publicado, ni mucho menos, de lo que no se compartió.

Tal día como hoy Facebook manipuló tus recuerdos 4
Annie Spratt / Unsplash

Cada vez que publicamos algo ayudamos a Facebook a aprender sobre qué nos gusta y cuanto más interactuamos con la plataforma, mejor funcionan los algoritmos que construyen la experiencia a medida que esperamos. Con nuestros likes, publicaciones y memorias proporcionamos la base de un lucrativo negocio además de crear una realidad sesgada, reducida por el filtro burbuja. Parece un mecanismo perfecto, pero en el caso de los recuerdos, resulta imposible garantizar que éstos sean la mejor moneda de cambio.

De nosotros depende ser conscientes de las transformaciones a las que se enfrenta el mecanismo de la memoria, lidiar con la dependencia de las redes a la hora de rescatar recuerdos y sobre todo, seguir reflexionando sobre lo esencial. Tal día como hoy, publicaste un vídeo de un gatito en tu muro, pero eres tú y no los algoritmos quien decide si quizá existen otros recuerdos más valiosos que rememorar.

Save

Continúa leyendo: El Filtro Burbuja o por qué aunque tengas muchos 'likes' no necesariamente tienes razón

El Filtro Burbuja o por qué aunque tengas muchos 'likes' no necesariamente tienes razón

Ana Laya

Puede que no hayas oído hablar del filtro burbuja, pero definitivamente tu visión del mundo está siendo configurada por él. A finales de 2009, específicamente el 4 de diciembre, comenzó la era de la personalización, un pequeño paso para un algoritmo de Google, un gran paso para la lenta pero segura edificación de un sinfín de universos paralelos, de realidades alternativas.

Sí, todo esto empezó hace más tiempo de lo que (muchos) pensamos y no, esta no ha sido la causa del Brexit, ni de Trump, pero sí de la sorpresa que le ha causado a una gran parte de la población.

¿Por qué? Eli Pariser, activista liberal y co-fundador de Upworthy y Avaaz, lo explica en su libro El filtro burbuja. Cómo la red decide lo que leemos y lo que pensamos (Editorial Taurus, 2017) y en la conferencia a la que ha sido invitado por la Fundación Telefónica y el Instituto Aspen como parte del ciclo Tech & Society. “Aquello que una vez fue un medio anónimo donde todo el mundo podía ser quien quisiera, ahora es una herramienta para recopilar y analizar nuestros datos personales.”

Es justo lo contrario a la famosa viñeta de The New York Times; en Internet ahora todo el mundo no solo sabe que eres un perro, si no que también conocen tu sexo, tu grupo etario, desde dónde te conectas, en qué dispositivo, a través de qué buscador, e incluso mediante micrófono, giroscopio y GPS si sueles buscar vuelos a destinos exóticos mientras caminas al atardecer del trabajo a tu casa… ¿o jamás te preguntaste por qué todos los banners que se te atravesaban en tus lecturas vespertinas eran de aerolíneas?

El filtro, como lo describe Pariser, empezó con Google en 2009, pero los algoritmos de los grandes gigantes de las redes han ido replicando la fórmula, una fórmula centrada en obtener beneficios económicos a través de la publicidad, en lugar de informar de manera equilibrada, contrastada, ética… o al menos lineal; por eso ahora los timelines de Facebook y Twitter dejaron de ser “líneas de tiempo” para pasar a mostrar los posts no en orden de aparición sino en orden de “relevancia” y por eso también Instagram dejó de ser “insta”.

Esto se convierte en un problema grave cuando dejamos de hablar de posts de gatos haciendo cosas o de #windowswithaview, sino de noticias. Tal como le gusta alardear a Mark Zuckerberg, puede que Facebook sea la mayor fuente de noticias del planeta, “al menos en lo que respecta a ciertas definiciones de lo que es una ‘noticia'”, alerta Pariser. De hecho los investigadores del Pew Research advirtieron ya en 2015 que Facebook es la fuente primordial de información política entre millennials estadounidensenses, seguidos de cerca por los GenX, un fragmento nada despreciable de la población votante.

El Filtro Burbuja o por qué aunque tengas muchos 'likes' no necesariamente tienes razón
Portada de El Filtro Burbuja, de Eli Pariser. Traducido por Mercedes Vaquero. Editado por Taurus. (2017)

“En una era en la que el intercambio de información es la base de la experiencia compartida, la burbuja de filtros actúa como una fuerza centrífuga que nos separa.”

Si bien se puede argumentar que antes de Internet y de sus algoritmos siempre hemos consumido medios de comunicación afines a nuestros intereses y aficiones, hay dos aspectos en los que el filtro burbuja es radicalmente diferente: en primer lugar, tú y tus filtros están solos. Tú eres la única persona dentro de tu burbuja. “En una era en la que el intercambio de información es la base de la experiencia compartida, la burbuja de filtros actúa como una fuerza centrífuga que nos separa.” Segundo: la burbuja de filtros es invisible. El individuo que activamente toma la decisión de comprar el Daily Mail o sintonizar FOX News sabe exactamente cuál es el punto de vista o la línea editorial de esos medios; en cambio, como señala Pariser, las intenciones de Google o Facebook al mostrarte lo que decide mostrarte (o no) son, cuando menos, opacas y para la mayoría están ocultas en la falacia de la neutralidad y la abundancia.

La cita con la que abre Pariser su libro es de Zuckerberg que dice lo siguiente: “saber que una ardilla se muere delante de tu casa en este momento puede ser más relevante para tus intereses que el hecho de que la gente se muera en África. “Esa afirmación, además de ser muy amarga de digerir, puede que sea válida para un mundo en el que las personas son meros consumidores y no ciudadanos. “Es una virtud cívica estar abierto a aquello que parece encontrarse fuera de tus intereses (…) en un mundo complejo, casi todo te afecta”, afirma en el libro Clive Thompson, periodista especializado en tecnología. Mientras el crítico cultural Lee Spiegel lo expresa de otro modo: “los clientes siempre tienen la razón, pero la gente no.”

El Filtro Burbuja o por qué aunque tengas muchos 'likes' no necesariamente tienes razón 1
Eli Pariser en la rueda de prensa ofrecida en la Fundación Telefónica.

¿Atrapados sin salida?

Usando la misma metáfora que utiliza Pariser en su libro, el genio está fuera de la botella y es prácticamente imposible hacer que vuelva. La publicidad es la fuerza que guía la manera en la que los algoritmos son construidos y ya existe un mercado de miles de millones de euros que se basa en la recolección de data personal a través de cookies y en su venta, en cuestión de microsegundos, al mejor postor. Google, por ejemplo, promete no difundir tus datos personales, sí, pero otras páginas y apps bastante populares no lo garantizan en ninguno de esos Términos y Condiciones que aceptamos sin leer. La fórmula funciona y en opinión de Sheryl Sandberg, la jefa de operaciones de Facebook, el hecho de que una página no esté personalizada para un usuario en particular parecerá raro.

Pero tranquilo, que si has llegado hasta este punto en el artículo, significa que estás genuinamente interesado y que por lo menos ahora te estarás planteando activamente romper esa burbuja invisible. Y básicamente ahí está todo el truco. Pariser afirma que si bien el filtro burbuja sigue bastante vigente, desde la primera edición de su libro el contexto ha cambiado y ahora la gente está más familiarizada con los procesos que ocurren detrás de cámara en las redes sociales y los ingenieros que trabajan en estas grandes plataformas también son más conscientes de la responsabilidad que tienen en sus manos.

El Filtro Burbuja o por qué aunque tengas muchos 'likes' no necesariamente tienes razón 2
Captura de pantalla de Escape Your Bubble.

Entre esos ingenieros ingeniosos y los activistas de Internet hay ya algunos que se han dedicado a construir maneras de romper la burbuja, por ejemplo la página Escape Your Bubble, que te propone ayudarte a entender mejor ciertos fenómenos o el pensamiento de cierto grupo con el que no estás familiarizado.

“Tenemos que aceptar y entender más a nuestros compatriotas”, dicen en su manifiesto. Después de todo no parece casualidad que a los filtros burbuja lo acompañe el ‘thin-skinnedness’ (el síndrome de la piel delgada) gracias al cual el debate abierto y el intercambio de ideas sea algo cada vez menos frecuente en las redes, y en su lugar la respuesta ante opiniones contrarias suele ser el insulto, el trolleo y el ataque personal.

Ahora bien, si ya no confías en la inteligencia (o estupidez) artificial para hacer el trabajo de ir explotando todas estas burbujas invisibles que te permiten ver solo un fragmento del mundo, te toca a ti activamente hacerlo. Eli Pariser con su libro te facilita un alfiler. ¡Buena suerte!

 

Save

Save

Save

Save

Save

Save

Save

Save

Save

Save

Save

Save

Continúa leyendo: Ellos lo saben todo

Ellos lo saben todo

Clara Paolini

¿Por qué trabajamos gratis para Google y Facebook?

Internet es una mansión de cristal donde todo lo que miramos, sobre qué hablamos, lo que nos interesa o preocupa, dónde estamos, qué hacemos, con quién y cuándo, queda registrado para siempre. Vaya novedad, ¿verdad? A estas alturas todos hemos aceptado en mayor o menor medida que nuestra identidad, el más preciado bien de todo individuo, se nos escapa cada día un poco más de las manos a golpe de click. También sabemos, o al menos eso espero, que alguien se beneficia de todos esos valiosos datos que compartimos “sin querer queriendo”.

Sabemos todas esas cosas, pero en general, evitamos pensar en ello. No nos gusta hurgar más de la cuenta en el irrefutable hecho de haber entregado nuestras identidades; en primer lugar, porque resulta incómodo y molesto sabernos desnudos, listos para ser arrojados en la caja de las estadísticas o nichos de mercado, y en segundo, porque resulta sencillamente más cómodo y placentero seguir disfrutando de lo fácil que nos hace la vida internet, prefiriendo no detenernos en preguntas que puedan ocasionar conflictos internos imposibles de resolver.

Aun así, por mucho que intentemos evitar pensar en ellas en un intento de hacerlas desparecer, las preguntas incómodas siguen ahí, acechando nuestra apacible existencia en conectividad: ¿cuál es el precio que en realidad pagamos al utilizar servicios digitales gratuitos?, ¿qué consentimos, sin saberlo, al instalar cookies, aceptar las condiciones de Facebook o hacer una inocente búsqueda en Google?, ¿qué saben de nosotros las grandes empresas digitales y cómo lo utilizan?, ¿somos conscientes de que cómo los grandes gigantes digitales monetizan nuestro tiempo en red, nuestras reacciones y hasta nuestras relaciones?

En la cúspide de esta montaña de dudas se eleva la incógnita sobre si hallar respuestas de verdad nos preocupa o es más cómodo optar por el “ojos que no ven corazón que no siente” para poder seguir disfrutando de las innumerables maravillas que ofrece la web. Como primera respuesta a todas estas preguntas, un aviso a navegantes: lo más probable es que estas cuestiones quede sin resolver mientras el tiempo que pasas en esta página se monitoriza. Y resulta complicado dilucidar si eso es bueno o malo.

further-trabajar-gratis-facebook-google-1
Instalación de Rick Smolan para la exposición Big Bang Data vía Torene Project

¿Cómo utilizan nuestra información?

En los últimos años, un reducido número de corporaciones digitales ha conseguido hacerse con más información de la de ningún servicio de inteligencia en la historia soñara jamás. Compilar la ingente cantidad de datos que hoy nutre el llamado fenómeno Big Data ha resultado una tarea sorprendentemente fácil, porque la hemos entregado a cambio de cosas que nos gustan, o en este, punto, que consideramos hasta indispensables. Dar tu nombre, fecha de nacimiento y ubicación para poder enviar emails o hacer llamadas sin pagar un duro parece a simple vista, una oferta irrechazable.

Con el mismo principio, usamos Google Maps aceptando informar sobre dónde estamos, traducimos textos en otra lengua mientras dejamos un rastro de los contenidos que antes no entendíamos o adquirimos objetos baratos de importación dejando bien claro qué tipo de consumidores somos y cuáles son nuestros hábitos de compra. No es una trampa en la que hayamos caído de forma pasiva, e incluso nos convertimos en creadores de contenidos con los que rellenar los espacios sobre los que se publicitan las marcas. De lo que no nos damos cuenta es que en el fondo, todos esos fantásticos servicios que hacen de internet un espacio más útil y enriquecedor cada día, no son gratis. Son plataformas de las que disfrutamos gracias al sistema de trueque “servicios a cambio de datos”.

Estos intercambios, ¿contribuyen a hacer nuestra existencia un poco mejor, más fácil y agradable? Desde mi punto de vista sí, pero no conviene perder de vista el hecho de que Google o las redes sociales son empresas de publicidad cuyo modelo de negocio es utilizar nuestros datos para que el resto de compañías, que sí venden bienes o servicios a cambio de dinero, lo hagan de forma más efectiva. El principal objetivo de los gigantes digitales es enriquecerse. Si de forma colateral crean un mundo mejor conectado y más avanzado, o por el contrario, una sociedad más fácilmente manipulable, son a fin de cuentas, efectos colaterales.

En una entrevista al economista Yann Moulier-Boutang en la contra de La Vanguardia el experto ofrece una visión clara sobre lo evidente: todos trabajamos gratis para la GAFA (siglas de G-oogle, A-pple, F-acebook y A-mazon). “Millones de humanos no cobran ningún sueldo pero dedican gran parte de su vida a generar dividendos para las GAFA. Ocupando todas las facetas de nuestra vida, la digitalización consiste en poner online, ergo monetizar, todas las relaciones humanas (…) Se van apropiando de todos los signos que los humanos generamos en el planeta: el presupuesto de una empresa o el cumpleaños de la abuela en Facebook. Es la economía de la atención, cuanta más atención les prestamos, más datos les damos y más rentables son. Los convierten en dinero, acompañándolos de publicidad viralizada, o en información mercancía para venderlos como big data a otras empresas”.

Instalación HELLO World! de Christopher Baker vía Gunnar Knechtel Photography
Instalación HELLO World! de Christopher Baker vía Gunnar Knechtel Photography

Lo queramos o no, muchos de nosotros somos esclavos de internet, y como tal, ponemos al servicio de las grandes corporaciones nuestra mano de obra gratuita. Como resalta Moulier-Boutang, “nadie se daba cuenta de que gratis eran las baratijas con que los esclavistas engañaban a los nativos hasta encadenarlos”, como puede que tampoco estemos apreciando en toda su complejidad el nuevo status de control por parte de las compañías digitales porque lo que nos ofrecen, nos encanta.

Las mentes más brillantes de nuestra generación trabajan en sus oficinas, por lo que resultan “amos” bastante considerados. Manejando a la perfección el ambiguo concepto de libertad, pocos nos sentirnos cautivos, y aunque la publicidad nos molesta, seguimos considerando que somos medianamente libres y anónimos. Pasar tiempo navegando es tan entretenido, didáctico y útil, que llegamos a la conclusión de que nos están haciendo un favor, y como somos tantos los usuarios, el sentido de esclavismo o falta de privacidad queda diluido entre la masa. A fin de cuentas, ¿qué importa que sepan todo acerca de mí si no soy nadie? Mientras no utilicen mis datos bancarios sin mi consentimiento, todo bien.

Lo gratis, ¿sale caro?

En palabras extraídas del libro Código 2.0 de Lawrence Lessing “la mayoría de usuarios de Internet no tiene ninguna conciencia de si su conducta está siendo vigilada o de si puede ser rastreada. Más bien al contrario, la experiencia de la Red nos sugiere anonimato”. El libro de Lessig, aunque imprescindible, ha cumplido ya 10 años, por lo que cabe preguntarse si acaso ¿no hemos perdido ya la inocencia? Las evidencias acerca de cómo la GAFA y sus compinches utilizan nuestros datos se han ido amontonando de forma gradual, y a día de hoy, resulta casi imposible no ver cuáles son las consecuencias. Si por ejemplo escribimos en la página de Facebook de una aerolínea una queja, al cabo de los meses aparecerá entre las fotos de nuestros amigos el anuncio de una empresa que gestiona reclamaciones sobre cancelaciones, o si ojeamos un producto en cualquier plataforma de venta online, nos perseguirá su fotografía en forma de anuncio allá donde vayamos en la web. Estaremos hablando con un familiar en Facebook, leyendo el periódico online o usando una app y allí estarán; los zapatos sobre los que te detuviste 1,3 segundos o los mejores hoteles de aquel destino de vacaciones que googleaste por pura curiosidad, te perseguirán hasta el último rincón.

La publicidad a medida, dando en el clavo de tus deseos, necesidades y gustos, aparece como por arte de magia, pero dado que hemos llegado a la madurez como internautas, sabemos que tiene truco. Los métodos que las marcas utilizan para crear y segmentar la publicidad en internet no son ningún secreto, y no hace falta ser un gurú del marketing digital para conocer las claves sobre el funcionamiento del mecanismo que mueve los hilos. No es necesario que hayamos visto nunca un Google Analitycs mostrando gráficos de comportamiento, ni sepamos de forma exacta las opciones que Facebook ofrece a las marcas para elegir los perfiles adecuados sobre los que publicitarse. En un alarde de demostrar lo bien que nos conocen y lo mucho que nos quieren (como consumidores), el sistema con el que las empresas monetizan nuestras navegaciones se exhibe en nuestras propias narices cada vez que aparece un anuncio a medida.

Face to Facebook, una obra de Paolo Cirio y Alessandro Ludovico vía LSN Global.
Face to Facebook, una obra de Paolo Cirio y Alessandro Ludovico vía LSN Global.

Pueden persuadirnos, ¿pero no manipularnos?

Las campañas de publicidad online son cada vez más invasivas, pero también es cierto que nuestras habilidades para distinguir y esquivar anuncios se ha desarrollado a la par. Dado que hemos aceptado trabajar gratis para Facebook y Google y que sabemos cómo utilizan nuestra información, nos hemos visto obligados a desconfiar de todo como forma de vida. Sin embargo, nuestro impermeable anti publicidad tiene sus límites y a veces resulta difícil complicado distinguir la fina línea que separa la persuasión de la manipulación.

Conozco a pocas personas que hayan visto un anuncio completo en YouTube antes de dar al botón de “saltar publicidad” y he llegado a presenciar los superpoderes de algunos individuos a la hora de evitar el campo de minas de pop ups y publicidad en algunas páginas ilícitas de visualización o descarga de películas. Pero si muchas de las empresas digitales marcan el paso de la economía, por algo será. ¿Por qué sigue funcionando tan bien? La clave está en mezclarlo todo y usar el mismo formato, haciendo que cada vez resulte más complicado distinguir, si es que alguna vez fue posible, qué es publicidad y qué es información. De ahí que Facebook incluya los anuncios en nuestro timeline en lugar de la fácilmente esquivable columna lateral de antaño, o que los medios de comunicación incluyan a pie de página impactantes “noticias” virales de dudosa procedencia con links a plataformas plagadas de anuncios.

“Los vendedores ya no sólo seducen nuestros deseos innatos, sino que llegar a programar nuestros comportamientos.

El abuso está a punto de devaluar no solo la publicidad, sino la propia información, pero por lo visto por ahora funciona. Y es más, antes de que estas tácticas dejen de ser efectivas, ya se habrán instaurado otras aún más penetrantes. Hace un tiempo un artículo publicado en el diario The Atlantic predecía certeramente el futuro del marketing asegurando que “ las futuras aplicaciones que hacen uso de grandes volúmenes de datos, localizaciones, mapas, seguimiento de los intereses de un navegador y flujos de datos procedentes de dispositivos móviles y portátiles, prometen marcar el comienzo de la era de poder sin precedentes en manos de los vendedores, que ya no sólo seducen nuestros deseos innatos, sino que llegar a programar nuestros comportamientos”.

En el lado opuesto a eta afirmación, podemos pensar que es imposible llegar a tal manipulación. Somos demasiado inteligentes como para no darnos cuenta del efecto que la publicidad tiene en nosotros, y algo hay que dar a cambio de los servicios de los que disfrutamos. Por ejemplo, los usuarios de Wallapop intercambian entre ellos productos mediante una plataforma gratuita en la que todo parecen ventajas. Por ahora, a pesar de las multimillonarias inversiones, no ganan ni un duro por lo que se prevé que en un futuro, habrá publicidad. Es posible que utilizando nuestra ubicación y búsquedas, se ofrezca información sobre comercios a nuestro alrededor donde comprar lo que queramos de primera mano. ¿Estarán manipulando nuestra información para vendernos cosas? Sí, pero establecer si esto nos perjudica al manipular nuestras acciones, o nos beneficia al hacer más fácil que encontremos lo que queramos, depende del cristal con el que se mire.

Apocalípticos e integrados

apocalipticos-e-integrados-umberto-eco-4970-MLA4008899551_032013-FTomando como referencia el conocido libro Apocalípticos e Integrados de Umberto Eco, es posible aplicar las concepciones opuestas con las que el filósofo dividía la percepción de la cultura de masas a esta nueva dominación de los gigantes online.  Según los apocalípticos, la cultura de masas, o en este caso, la nueva era del marketing digital, genera homologación, manipula a sus públicos, provoca emociones pre construidas y está dominada por las leyes del mercado. Uno de las personalidades que mejor ejemplifica esta corriente de opinión sea quizá Andrew Keen, autor de Internet no es la respuesta. Por otro lado, desde la visión de los integrados, la actual era de la digitalización, no puede ser reducida a un fenómeno capitalista, permite el acceso democrático a la cultura y la información, puede servir como agente de formación y satisfacer necesidades. Como ejemplo de esta postura, cualquier trabajador de Sillicon Valley que considera que gracias a nuestros datos, la tecnología está haciendo del mundo un lugar mejor.

En el fondo importa poco de qué lado nos situemos, ya que lo cierto es que parece imposible escapar. La única alternativa a este nuevo mundo creado donde la publicidad mueve los hilos de nuestras acciones es no utilizarlo, y sinceramente, no parece una opción más beneficiosa que continuar compartiendo datos. Lo de poner en Facebook “no permito que se venda mi información” es una verdadera chorrada, leerse el rollo de las cookies cada vez que visitamos una página es impensable y por más que Google se empeñe en convencernos en su página de administración que no vende nuestra información a terceros, queda claro que eso es extensamente discutible.

La ley establece nuestro derecho a saber qué saben las empresas de nosotros, ¿pero de verdad nos importa? Tomando prestada una frase de Dan Ariely, los humanos somos “predeciblemente irracionales” por lo que no siempre actuaremos en nuestro mejor beneficio. Mientras unos sigamos disfrutando y otros enriqueciéndose, la maquinaria seguirá en marcha, aunque nunca está de más abrir los oídos al permanente murmullo que desde segundo plano se burla de nosotros susurrando “si lo barato sale caro, lo gratis ya ni te digo”.

Continúa leyendo: Una teoría científica prevé que 2018 será el año de los grandes terremotos

Una teoría científica prevé que 2018 será el año de los grandes terremotos

Redacción TO

Foto: Navesh Chitrakar
Reuters

No prestamos demasiada atención a los movimientos de la rotación de la Tierra, pero son más relevantes de lo que el común de los mortales creemos. De vez en cuando, la rotación de la Tierra disminuye algunos milisegundos por día, y esto va a tener un enorme efecto en las vidas de millones de personas alrededor del globo. Según el Servicio Geológico de los Estados Unidos ha habido 7.574 a escala global en los últimos diez años. Una reciente teoría prevé que esta cifra pegará un importante repunte el próximo 2018.

En un estudio publicado en Geophysical Research Letters a mediados de este año, los científicos Roger Bilham, de la Universidad de Colorado, y Rebecca Bendick, de la Universidad de Montana predicen que, debido a la desaceleración de la rotación de la Tierra, el mundo sufrirá un aumento significativo de grandes terremotos en 2018.

Para llegar a esta conclusión, los investigadores estudiaron todos los terremotos desde 1900 que registraron una magnitud (según la escala del momento en que sucedieron) de 7,0 o mayor y descubrieron que aproximadamente cada 32 años hay un repunte en estos grandes sismos.

Una teoría científica prevé que 2018 será el año de los grandes terremotos 2
Aproximadamente cada 32 años hay un repunte en grandes sismos en el mundo. | Foto: Kim Hong-Ji / Reuters

El factor común

El estudio revela, asimismo, que el único factor que se correlaciona fuertemente en esta repetición de grandes terremotos es una ligera desaceleración de la rotación de la Tierra en un período de cinco años antes del repunte, algo que ha ocurrido en el último lustro.

En el ecuador, la Tierra gira 460 metros por segundo. Dada esta alta velocidad, no es absurdo pensar que un ligero desajuste en la velocidad entre la corteza sólida y el manto y el núcleo líquido podría traducirse en una fuerza que, de alguna manera, empujaría los temblores a la sincronía.

La mayoría de los sismólogos coinciden en que la predicción de un terremoto es un terreno pantanoso. Y hasta ahora, Bilham y Bendick tan solo tienen ideas difusas y difíciles de probar sobre lo que podría causar el patrón que encontraron. No obstante, el hallazgo es demasiado provocador para ignorarlo, dicen otros investigadores. “La correlación que encontraron es notable y merece una investigación“, dijo Peter Molnar, reconocido geólogo norteamericano, a la revista Science.

La importancia de prevenir

Entonces, ¿es posible predecir los terremotos? Es una pregunta que molesta a los sismólogos, no porque no sea razonable, sino porque los científicos lo han intentado muchas veces y siempre han terminado en fracaso. Incluso después de muchos avances en sismología, como lo expresa Richard Luckett del British Geological Survey, “cuando ocurre un terremoto es esencialmente un evento aleatorio“.

Una teoría científica prevé que 2018 será el año de los grandes terremotos 1
Los devastadores terremotos de México en este 2017 dejaron centenares de víctimas mortales. | Foto: Nacho Doce / Reuters

Ante la aparente imprevisibilidad de la actividad sísmica, la única solución para evitar grandes desastres como los que sacudieron México hace unos meses es una previsión efectiva. España es un ejemplo claro de la falta de preparación a la hora de afrontar grandes terremotos. La evidencia está en el ocurrido en Lorca en 2011, que tuvo una magnitud de 5,1, y dejó nueve víctimas mortales e innumerables daños materiales. El 75% de las viviendas en España cumple con “poco rigor” la normativa de construcción sismorresistente, y es necesario con “urgencia” rehabilitar edificios para soportar terremotos, según el expresidente de la Asociación Española de Ingeniería Sísmica, Ricardo García Arribas. Por ello, y teniendo en cuenta esta nueva teoría científica, la inversión en una preparación mejor de nuestras infraestructuras y protocolos de actuación puede ser clave ante cualquier catástrofe.

Continúa leyendo: El futuro tendrá robots tan inteligentes emocionalmente como nosotros y no pasará nada

El futuro tendrá robots tan inteligentes emocionalmente como nosotros y no pasará nada

Rana Kaliouby

Foto: Murad Sezer
Reuters

Viajemos al futuro. Exactamente al año 2030. Una fecha en la que se espera que los humanos ya no seamos los únicos seres con inteligencia, sino que será la época de las máquinas inteligentes. La inteligencia artificial ya no se verá como una posible innovación, sino como una tendencia dominante. Ya no será solo aquello que tienen en una medida limitada nuestros teléfonos o algunos buscadores como los de Google o Netflix. La inteligencia artificial será ya cognitivamente inteligente, capaz de calcular tareas complejas e incluso de aprender por sí mismo. También será emocionalmente inteligente, consciente de nuestros estados mentales, sociales y emocionales más diversos, e íntimamente familiarizado con nuestros estados de ánimo y nuestras preferencias.

Estamos en 2030 y nuestros dispositivos, nuestros vehículos, nuestros aparatos domésticos conectados y ropa tecnológica inteligente tienen un chip emocional integrado que detecta nuestros estados de ánimo a través de nuestras voces y gestos. Actualmente interactuamos con la tecnología de la forma en que interactuamos unos con otros: a través de la conversación, la percepción y la emoción.

Contrariamente a lo que los escépticos de la inteligencia artificial (IA) pronosticaron alguna vez, toda esta IA con capacidad de emoción ha aumentado nuestra humanidad y empatía por los demás. Y no, no todos estamos sin trabajo. De hecho, han surgido nuevas industrias. Hoy hay más trabajo por hacer que nunca; más problemas para resolver.

El futuro tendrá robots tan inteligentes emocionalmente como nosotros y no pasará nada 1
Una fábrica de robots humanoides. | Foto: Stringer/Reuters

Por ejemplo, mi hija: Jana acaba de cumplir 30 años, es socia de Nemit, una empresa de impacto social que aprovecha el poder de la IA empática para brindar igualdad de acceso a la educación y la asistencia médica a personas de todo el mundo. Nemit emplea a 1500 personas en 58 países. La empresa aplica la IA emocional, al extraer perfiles de datos emocionales de las personas para personalizar las experiencias educativas y rastrear el bienestar mental y emocional de las personas, y evitar las crisis de salud antes de que ocurran.

Asistentes virtuales desde pequeños

Actualmente, Jana vive en Londres. De hecho, acaba de aterrizar en Heathrow con un ojo rojo. Mediante el seguimiento de una variedad de señales visuales y vocales, su asistente virtual Zee detecta que está agotada. Zee conoce a Jana desde que era una adolescente, y hoy sigue a Jana a todas partes, pasando por los diversos dispositivos de Jana con todo el contexto de sus actividades diarias, estados de ánimo y recuerdos. Zee sugiere que el programa de Jana para el día es demasiado agitado y ofrece eliminar algunas reuniones de su calendario. Zee también se contacta con mi asistente virtual para avisarme que mi hija aterrizó bien.

Además, Zee recuerda mantener esa cita con Liam, amigo de la escuela desde hace mucho tiempo de Jana y jefe de Operaciones Globales de Nemit. Al encontrarse en el espectro autista, Liam no siempre tuvo una vida fácil. La escuela secundaria fue un verdadero esfuerzo ya que descubrió que las interacciones sociales eran arduas. Era inteligente, solía estar solo, incluso era hostigado debido a su falta de aptitud social. Pero ahora usa anteojos sensibles a las emociones, que aumentan su destreza social y emocional, al traducir las expresiones faciales y vocales de las personas a números y puntajes de probabilidad.

El futuro tendrá robots tan inteligentes emocionalmente como nosotros y no pasará nada
Una niña observa un robot. | Foto: Andy Wong/AP

La empatía es la base de los negocios de Jana. La empresa aplica los últimos desarrollos en IA emocional para medir e impulsar la empatía en su equipo y socios en todo el mundo. Un tablero de control mantiene un registro del pulso emocional de su equipo, e indica que los niveles de ansiedad se elevan en el equipo de Jordan, muy por encima de su base de referencia. Zee está allí, programando un viaje a Amman lo antes posible.

Además de garantizar que las personas de todo el mundo tengan acceso a la salud mental, los asistentes digitales virtuales pueden actuar como compañeros de aprendizaje, utilizando su conocimiento de lo que lo motiva e inspira, para ayudarlo a estudiar y aprender. De esta manera, la IA podría usarse para crear condiciones equitativas en la educación y ayudar a reducir las brechas socioeconómicas en todo el mundo.

Nuevos trabajos sobre ética

Pero donde hay ganancias, también hay trastornos: la IA ha automatizado muchas tareas, lo que ha provocado la eliminación de algunos trabajos. Pero también hay trabajos nuevos: ingenieros que entrenan, evalúan y operan estos sistemas de IA. Los conductores de camiones, que alguna vez temieron que la nueva tecnología los dejara sin empleo, en la actualidad operan cada uno 100 camiones autónomos desde la comodidad de sus salas de estar. Hoy existen nuevos tipos de empresas de consultoría, muchas de las cuales ofrecen cursos de capacitación sobre cómo trabajar junto a los robots. En una sociedad que se preocupa acerca de si la IA se implementa de manera ética, existen nuevas oportunidades para los expertos en ética de la IA y los defensores de la justicia social.

En 2030, la inteligencia artificial emocional ha transformado no solo la manera en que interactuamos con la tecnología, sino lo que es más importante, cómo nosotros, como humanos, interactuamos unos con otros. La empatía es nuevamente el centro de cómo nos conectamos y nos comunicamos. De hecho, son las empresas y las personas las que trabajan para construir un manto de empatía en sus interacciones con los demás, en lugar de centrarse en la eficiencia o el resultado final, que están dando forma al futuro.

_

Artículo publicado originalmente en el World Economic Forum en español.

TOP