Hola, ¿qué estás buscando?

de resultados

No se ha encontrado ningún resultado

Ver más

Por qué la inteligencia artificial logrará crear empleo (y no destruirlo)

Redacción TO

Foto: Koji Sasahara
AP

Las máquinas ya tienen mejor ojo que las personas. Y el asunto empieza a monetizarse. “En 2015, por primera vez en la historia, los ordenadores se hicieron mejores que los humanos en reconocimiento de objetos”, ha explicado en una entrevista James Crawford, fundador de la compañía estadounidense de inteligencia artificial Orbital Insight. Un programa de inteligencia artificial puede aprender a reconocer árboles, coches u otros objetos y ver patrones entre millones de datos, pero ¿cómo puede hacerse útil ese avance? Crawford, que trabajó durante 15 años para la nasa diseñando software para los rovers de Marte, lo ha logrado. A principios de 2017, Orbital Insight logró mezclar datos de distintas fuentes para reconocer, con imágenes de satélites, barcos piratas que faenaban sin radar para no ser detectados.

Y solo es el comienzo. Las empresas como Orbital Insight, informa Newsweek, buscan incesantemente datos brutos obtenidos mediante satélite y se los compran a las propias compañías que los ponen en órbita para analizarlos posteriormente con algoritmos de inteligencia artificial.  Se trata de un comportamiento que añade leña al auge de los satélites, que en los últimos años ha logrado abaratar considerablemente la construcción y el lanzamiento de estos aparatos gracias a empresas como SpaceX, de Elon Musk. De los 260.500 millones de dólares (más de 210.000 millones de euros) que mueve a escala mundial la industria de los satélites, el segmento de mayor crecimiento son los satélites pequeños que observan las condiciones en la Tierra, según un informe de la Satellite Industries Association, citado por Reuters. Y este crecimiento tiene su repercusión sobre el empleo. Solo en diciembre pasado, Linkedin registró más de 11.000 ofertas de empleo en el sector de los satélites en Estados Unidos.

Inteligencia artificial versus inteligencia humana

Hacer uso de la inteligencia artificial para rastrear cantidades ingentes de datos (como las que recogen los satélites) permite reconocer fenómenos y tendencias imposibles de reconocer para el ojo humano y que quizás ni siquiera nadie se había planteado buscar. Pero la inteligencia artificial no puede funcionar sin una inteligencia humana que la diseñe, la ponga en marcha, la mantenga y estudie sus conclusiones.

Frente al temor de que la inteligencia humana repercuta negativamente en el empleo y la contratación, su aplicación en el análisis masivo de datos hace posible nuevas ofertas de empleo. Una encuesta de Quartz a 1.600 personas reveló que el 90% de ellas creía que en menos de cinco años años la automatización haría perder la mitad de los empleos de hoy en día (como contrapartida, un 91% de los encuestados opinaba que los trabajos eliminados serían los de otras personas, no los suyos propios). Sin embargo, un informe de la firma de análisis Gartner vaticina que, para 2020, la inteligencia artificial destruirá 1,8 millones de empleos pero creará otros 2,3 millones. Es decir, que será la responsable de la creación de medio millón de trabajos. En la misma línea se muestra otro estudio de la consultora Capgemini, que revela que el 83% de las empresas que utilizan inteligencia artificial dicen que crea puestos de trabajo. Otra consultora, Deloitte, encontró que solo en el Reino Unido, la inteligencia artificial ha cercenado 800.000 empleos de baja cualificación pero ha hecho aparecer otros 3,5 millones de posiciones. Y los puestos creados, concluye Deloitte, están mejor pagados que aquellos destruidos (unos 10.000 euros más al año, de media).

Continúa leyendo: 'Machine Learning' o cómo hacer que una máquina aprenda a la velocidad de la luz

'Machine Learning' o cómo hacer que una máquina aprenda a la velocidad de la luz

Cecilia de la Serna

Foto: Markus Spiske
Unsplash

Cada vez escuchamos más eso de “Machine Learning”, un concepto con el que no todo el mundo está familiarizado. En la última WWDC de Apple, los chicos de la compañía de Cupertino nombraron este concepto en numerosas y diversas ocasiones, en el seno de la presentación de varios de sus productos tanto de hardware como de software. Según los expertos, Apple se está centrando en explotar tecnologías como Machine Learning, Realidad Aumentada y Realidad Virtual. Lo que hace Apple con el desarrollo de estas tecnologías es anticipar a sus productos futuros a estas nuevas tecnologías con la integración en los dispositivos actuales de nuevas capacidades. Este tipo de tecnología alcanzará un valor de hasta 132.000 millones de dólares en 2020, según las estimaciones de firmas especializadas como Markets&Markets y Digi Capital. Pero, ¿cómo funciona, en qué se aplica y qué supone este concepto?

Así funciona

Esto del Machine Learning puede sonar a chino para el común de los mortales. Se trata, grosso modo, de una disciplina científica dentro del ámbito de la Inteligencia Artificial que crea sistemas que aprenden automáticamente. Aprender consiste, en este contexto y a grandes rasgos, en identificar patrones complejos en millones de datos para interpretarlos. La máquina que aprende es un algoritmo que revisa los datos y es capaz de predecir comportamientos futuros. Automáticamente, esta tecnología deriva en la mejora autónoma con el tiempo, sin intervención humana.

Qué es el ‘Machine Learning’ que está cambiando nuestra relación con la tecnología
Funcionamiento básico del Machine Learning. | Gráfico: Ana Laya / The Objective

Básicamente, la máquina aprende sola porque su algoritmo de aprendizaje automático se basa en ejemplos de actuación, ejemplos que clasifica y optimiza para futuras respuestas. Es decir, que la máquina adquiere su propia experiencia y aprende de ella para mejorar. El aprendizaje puede ser supervisado, en mayor o menor medida, por un humano, o puede no ser supervisado. Lo normal es que sí esté supervisado, ya que para que el Machine Learning funcione, los programadores trabajan en perfeccionar estos algoritmos para que sean lo más precisos posible en una tarea en concreto, en cualquiera de sus aplicaciones. Por tanto, podríamos entender este proceso como un entrenamiento de la máquina a base de grandes cantidades de datos que van perfeccionando los algoritmos.

Diferentes aplicaciones

El aprendizaje automático -así se llama en castellano- puede aplicarse a muchos y diferentes sectores, desde el ocio a la sanidad y pasando por el deporte. Una de esas aplicaciones resulta realmente interesante: la ciberseguridad. El Machine Learning puede usarse para detectar fraudes en transacciones digitales, predecir el tráfico urbano, predecir fallos en equipos tecnológicos, detectar intrusiones en una red de comunicaciones de datos, entre otras muchas cosas.

El Machine Learning puede mejorar nuestra existencia notablemente

El Machine Learning, como la mayoría de tecnologías que hemos ido integrando en nuestra vida cotidiana, puede mejorar nuestra existencia notablemente. Por ejemplo, en la cirugía puede resultar muy útil a la hora de decidir si es conveniente llevar a cabo una operación partiendo de la tasa de éxito de la intervención, relacionándola con las características personales de pacientes anteriores. En el mundo del marketing, del consumo, de los negocios… la máquina puede pensar por nosotros en todo aquello a lo que nuestras humildes -aunque potentes- mentes no llegan.

Deep Learning, un paso más allá

En tecnología, cuando se habla mucho de un concepto, suele significar que éste ya está medio desfasado. Es el caso del Machine Learning, que aunque Apple lo mencione en sus conferencias y nosotros le dediquemos artículos, empezó a trabajarse en la década de los años 80 y ya en 2010 estaba un poco demodé. No es que ya no exista, sino que se ha mejorado tanto, que ahora se está desarrollando otro tipo de tecnología más sofisticada, el Deep Learning. Se trata un subconjunto dentro del campo del aprendizaje automático que se basa en la idea del aprendizaje desde el ejemplo.

Mientras que con el Machine Learning clásico los programadores deben surtir a las máquinas de grandes cantidades de datos y reglas precisas para poder solventar un problema y aprender de la situación, con el Deep Learning no es necesaria tamaña intervención. Este aprendizaje profundo consiste en aprender a base de representaciones de datos y ejemplos, por lo que el trabajo del programador es, en principio, menor. Esta tecnología está aprovechando diversas arquitecturas de aprendizaje profundo, como las redes neuronales profundas, las redes neuronales profundas convolucionales, o las redes de creencia profundas -todas estas herramientas muy avanzadas en el campo de la Inteligencia Artificial- para aplicarlas en campos como la visión por ordenador, el reconocimiento automático del habla o el reconocimiento de señales de audio y música.

El Deep Learning, básicamente, es el camino por el que recorreremos el futuro de la Inteligencia Artificial. Mientras que el Machine Learning más clásico ha logrado ayudarnos en muchas tareas, pero no logra ser del todo preciso, el Deep Learning puede llegar a ofrecer una precisión del 99,99%. Esto se revela fundamental cuando hablamos de sectores como el de la automoción automática. Si vamos a dejar que un coche conduzca por nosotros, tendremos que asegurarnos de que es mucho más preciso que nosotros mismos.

Las máquinas aprenden solas y se supone que lo hacen para mejorar nuestra experiencia, y no para invadirnos como en incontables ocasiones nos han relatado los libros y las películas de ciencia ficción. El control humano sobre ellas debe primar, pero sin desdeñar lo que nos pueden ofrecer. El futuro ha llegado y aprende más rápido que nosotros.

Continúa leyendo: La inteligencia artificial que detecta si eres homosexual con una foto

La inteligencia artificial que detecta si eres homosexual con una foto

Néstor Villamor

Foto: Toru Hanai
Reuters

¿Está depilado y se maquilla? ¿Está obsesionada con el fútbol y lleva el pelo corto? Ciertos estereotipos más o menos afortunados pueden permitir, a ojo de buen cubero, advertir si alguien es homosexual. Pero esta sabiduría callejera se ha quedado en la cuneta con la publicación de un estudio que expone que una herramienta de inteligencia artificial que utiliza técnicas de reconocimiento facial puede deducir si una persona es homosexual con solo una fotografía. Se trata de un programa informático que utiliza algoritmos que permiten reconocer ciertos rasgos faciales. El trabajo, elaborado por los investigadores Michal Kosinksi y Yilun Wang, de la Universidad de Stanford, en Estados Unidos, se ha publicado en el Journal of Personality and Social Psychology.

El programa, que no ha sido desarrollado por los científicos que firman el análisis -solamente lo utilizaron-, fue capaz de predecir con relativa precisión la homosexualidad de más de 35.000 personas utilizando fotos de perfil de una página de citas estadounidense. Con ver una sola imagen, la herramienta acertó en el 81% de los hombres y en el 74% de las mujeres. Con cinco fotos de cada persona, el programa acertó en un 91% de los casos masculinos y un 83% de los casos femeninos. Los humanos hacen un trabajo mucho peor a la hora de adivinar sexualidades ajenas, según el estudio. Cuando los investigadores pidieron a un grupo de personas que hicieran la misma tarea, con una sola fotografía, el resultado fue de un 61% de aciertos en el caso de los hombres y de un 54% de aciertos en el caso de las mujeres.

Diferencia fisiológica entre homosexuales y heterosexuales

Existen “rasgos faciales transitorios”, según los científicos que firman el proyecto, como distintos estilos de cuidado personal (dejarse barba o afeitarse, llevar el pelo corto o largo…) que distinguen a los homosexuales de los heterosexuales. Pero los investigadores también han encontrado también rasgos faciales “fijos”. En el caso de los hombres, los homosexuales tienen, según el estudio, “mandíbulas y mentones más pequeños, cejas más finas y frentes más grandes” que los heterosexuales. En el caso de las mujeres, las homosexuales tienen los rasgos opuestos.

El trabajo pone sobre la mesa el debate sobre el origen de la orientación sexual. ¿Es innata o adquirida? Actualmente, el consenso científico general es que la sexualidad es producto de una combinación de ambos factores, pero no existen pruebas concluyentes.

Dilema ético

“Estos descubrimientos hacen avanzar nuestra comprensión sobre los orígenes de la orientación sexual y los límites de la percepción humana”, consideran Kosinki y Yilun. Pero también presentan un problema: que alguien pueda utilizar esta tecnología para invadir la privacidad ajena. ¿Y si un marido receloso utilizara esta inteligencia artificial con una foto de su mujer, sospechando que es lesbiana? ¿Y si esa misma mujer la utilizara con su hijo adolescente para intentar corregir su orientación si resulta ser gay? ¿Y si ese mismo adolescente la utilizara con algún compañero de clase para hacerle bullying? Pero aparte de conflictos más o menos cotidianos, hay un dilema ético mayor, que los propios investigadores reconocen: “Dado que empresas y gobiernos están utilizando cada vez más los algoritmos de visión informática para detectar rasgos íntimos de la gente, nuestros descubrimientos exponen una amenaza para la intimidad y seguridad de hombres y mujeres homosexuales”.

Es lo que preocupa a diversas organizaciones LGTB estadounidenses, que han criticado duramente la publicación del estudio. Este martes, la Campaña por los Derechos Humanos (HRC, por sus siglas en inglés) y la Alianza de Gays y Lesbianas contra la Difamación (GLAAD), han emitido un comunicado en el que exponen distintos motivos por los que desacreditan la investigación. Son los siguientes:

  • “El estudio no tuvo en cuenta individuos no blancos
  • El estudio no verificó de forma independiente información crucial, incluyendo edad y orientación sexual, y le dio valor a información que aparece en perfiles de citas online
  • El estudio asumió que no había diferencia entre orientación sexual y actividad sexual, lo cual es incorrecto
  • El estudio asumió que solo había dos orientaciones sexuales -homosexual y heterosexual- y no tiene en cuenta a los individuos bisexuales
  • La investigación expone: ‘Fuera del laboratorio, la tasa de precisión podría ser mucho más baja’ (el laboratorio = ciertas páginas de citas) y es 10 puntos menos preciso para las mujeres
  • El estudio dice detectar a hombres gays a partir de una piscina de fotos de webs de citas con una precisión del 81%. Aunque esto fuera cierto dados los errores arriba mencionados, todavía significa que los hombres heterosexuales, por lo tanto, podrían ser identificados como gays cerca del 20% de las veces
  • El estudio revisó características superficiales en las fotos de hombres y mujeres heterosexuales en webs de citas, como el peso, el peinado y la expresión facial”

Sin embargo, GLAAD le da la suficiente credibilidad como para “aplaudir” la decisión de la Universidad de Stanford de someter el estudio a una “revisión ética” tras el revuelo generado por el posible uso negligente de esta tecnología. A fin de cuentas, la policía para e incluso dice que mata en función de la raza del individuo. ¿Qué ocurriría si utilizara esta herramienta la policía de Chechenia, donde se ha denunciado la existencia de campos de concentración para homosexuales?

Continúa leyendo: Coches autónomos: no todo lo que predice Black Mirror es un desastre

Coches autónomos: no todo lo que predice Black Mirror es un desastre

Redacción TO

Foto: RICK WILKING
Reuters

Algunas predicciones de Black Mirror dan miedo: ¿recordáis el capítulo en que una mujer pelirroja sucumbe ante la desesperación de tener que compartir su día a día y gustar a la gente y sentirse correspondida a través de un sistema que recuerda a Instagram? Lo hace porque de ello dependen sus posibilidades de viajar, de encontrar empleo, de conocer a otras personas. Hay un sistema alrededor que lo promueve. Más adelante nos sorprendió descubrir que en China se está implantando un modelo con muchas similitudes, donde se valora con puntos nuestro comportamiento en las redes sociales, nuestros hábitos de consumo o nuestra opinión sobre el Gobierno.

En otro episodio particularmente siniestro se cuenta la historia de un atropello cometido con un coche autónomo, poniendo sobre la mesa la posibilidad de que estos vehículos estén en todas partes y no siempre para mejorar nuestras vidas. Y al menos la primera de estas premisas puede ser cierta, atendiendo a los enormes avances de los últimos meses.

Coches autónomos: no todo lo que predice Black Mirror es un desastre 1
Modelo del Nissan IMx expuesto en el CES 2018 de Las Vegas. | Foto: Steve Marcus/Reuters

Esta circunstancia se puso de manifiesto en la última gran convención internacional tecnológica: el Consumer Electronics Show –mejor conocido simplemente como CES–. Hay innovaciones que parecen solo posibles en un futuro remoto, pero probablemente no tengamos que esperar tanto. Nissan está desarrollando una tecnología con la que conectar el cerebro directamente con nuestro coche. El conductor, que tendría que llevar una suerte de cinta en la cabeza capaz de leer las ondas cerebrales, podría anticipar sus reacciones hasta en medio segundo.

Este gesto, que parece minúsculo, aumentaría nuestra seguridad al volante considerablemente: a veces una centésima segundo para girar el coche o frenar en seco nos puede salvar la vida.

Toyota, por su parte, llevó a la feria de Las Vegas su modelo Concept-i, que es una promesa de versatilidad respecto al coche tradicional. El vehículo, que –por supuesto– es eléctrico y autónomo, tiene un interior adaptable y su sistema e-Palette le permite modificar los módulos para servir como espacio de trabajo o como coche comercial. También en una máquina con inteligencia artificial capaz de interactuar con el piloto e interpretar sus emociones.

Este es, de hecho, otro de los puntos fundamentales que se desprende del CES es que pronto nos encontraremos con ciudades inteligentes en las que se habrá revolucionado la forma de comprender la movilidad que tenemos ahora. El stand de Ford escenificó esta propuesta y podían verse circular vehículos de entrega de pizzas e incluso, a modo de broma, coches donde el asiento era –realmente– un hombre disfrazado.

Un artículo de World Economic Forum apunta a que esta transformación de las ciudades se producirá motivada por dos cuestiones: la congestión y la contaminación atmosférica, que en último término es la principal causante del cambio climático. Esto producirá, por ejemplo, el nacimiento de taxis autónomos con mayor capacidad logística, lo cual podría reducir la cantidad de automóviles en las carreteras en más del 40%, según la página de la fundación. En Berlín, estiman que podría llegar a transportar hasta el 60% de los pasajeros totales.

Asimismo, están surgiendo propuestas como Olli, que diseña unos autobuses autónomos y de pequeñas dimensiones que cuentan con inteligencia artificial y realidad aumentada para atender a personas con discapacidades visuales, cognitivas, auditivas o físicas. Estos autobuses están preparados incluso para contratiempos. “Si un pasajero tiene problemas médicos, Olli es capaz de llamar a emergencias o de dirigirse directamente a una comisaria de policía u hospital”, explica Gina O’Connell, directora de Local Motors y líder del proyecto. Detrás de esta iniciativa se encuentran IBM y Local Motors y esperan que la fabricación en serie comience en verano de este año, tal y como apunta la revista del MIT.

Las ventas de coches autónomos podrían representar hasta el 2% de las ventas totales a nivel mundial en 2025 y el 8% en 2030. Depende del abaratamiento de los costes de producción que este porcentaje siga creciendo en las previsiones o si, por el contrario, se estanca.

Continúa leyendo: Elon Musk crea una empresa que conectará el cerebro a inteligencia artificial

Elon Musk crea una empresa que conectará el cerebro a inteligencia artificial

Foto: Marcio Jose Sanchez
AP Photo

El empresario Elon Musk, jefe de la compañía de coches eléctricos Tesla y del proyecto espacial SpaceX, ha anunciado su intención de lanzarse a explorar una tecnología capaz de conectar el cerebro a inteligencia artificial. La empresa con la que persigue esta vieja aspiración del ser humano ha recibido el nombre de Neuralink. En su cuenta de Twitter, Musk ha adelantado que publicará en el blog Wait But Why “un largo artículo sobre Neuralink dentro de una semana”. Además, ha añadido que le resultará muy “difícil” dedicarle tiempo al proyecto, pero que el “riesgo existencial” de no hacerlo es “demasiado alto”.

La nueva empresa se centrará en una tecnología de “encaje neuronal” que consiste en implantar minúsculos electrodos en el cerebro capaces de transmitir o “importar” pensamientos de o hacia un ordenador o dispositivo electrónico, ha informado The Wall Street Journal.


Musk, considerado un visionario dentro y fuera de Silicon Valley, cree que conectar directamente el cerebro a una máquina puede aumentar notablemente su poder. Esta realidad ha sido, hasta el momento, nada más que un sueño. Pero los científicos de un centro de investigación en Suiza ya lograron recientemente comunicarse por primera vez con pacientes totalmente paralizados, demostrando que su viabilidad está al alcance del hombre contemporáneo.

TOP