Ir a…

Noticiero Universal

Mil Noticias en Tiempo Real

Domingo, 11 de diciembre de 2016

Adelanto de “El auge de los robots”, de Martin Ford


14813056_10154674747434294_89450870_o-1

En El auge de los robots, el empresario de Silicon Valey Martin Ford argumenta y sostiene que conforme la tecnología continúe su desarrollo acelerado y las máquinas comiencen a encargarse de ellas mismas, se necesitarán menos personas para trabajar. A medida que el progreso siga su avance, tanto los empleos de alto nivel como los de nivel medio se evaporarán. El resultado podría ser un desempleo masivo y una mayor desigualdad, así como la implosión de la economía basada en el consumo.

Este libro es una lectura indispensable para cualquiera que desee comprender lo que significa el avance acelerado de la tecnología para sus propias expectativas económicas, sin mencionar las de sus hijos, así como para la sociedad como un todo.

A continuación un fragmento, a modo de adelanto:

Capítulo 4 – Los puestos de trabajo «de cuello blanco» están en riesgo

El 11 de octubre de 2009, los Angels de Los Ángeles eliminaron a los Red Socks de Boston en la primera ronda de play-offs de la American League, y se ganaron el derecho a enfrentarse a los Yankees de Nueva York en laWorld Series. El triunfo de los Angels fue un momento especialmente emotivo porque solo seis meses antes uno de sus mejores jugadores, el pitcher Nick Adenhart, había muerto en un accidente tras ser embestido por un conductor ebrio. Un periodista deportivo inició la crónica del partido con estas palabras:

Las cosas pintaban mal para los Angels cuando perdían por dos carreras en la novena entrada, pero se recuperaron gracias a un batazo decisivo de Vladimir Guerrero, que el domingo les dio una ventaja de 7-6 sobre los Red Socks de Boston en Fenway Park.

Guerrero llegó a la caja de bateo con una desventaja de 2-4; pero anotó un batazo con el que empujó a dos corredores de los Angels. «Si hablamos de honrar a Nick Adenhart y de lo que le sucedió en abril en Anaheim, sí, probablemente ha sido el mejor batazo [de mi carrera] —dijo Guerrero—. Se lo dedico a mi compañero fallecido.» Guerrero ha jugado bien toda la temporada, sobre todo en los partidos con luz de día. En 26 partidos jugados de día ha obtenido .794 en OPS [porcentaje de embase más bateos], ha anotado cinco home runs y ha lanzado a 13 corredores.

Seguramente, el autor no habrá recibido ningún premio por esta crónica. Pero es una crónica extraordinaria, y no porque sea legible, gramaticalmente correcta u ofrezca una buena descripción del partido, sino porque el autor es un programa informático.

El software en cuestión, llamado StatsMonkey, fue creado por inves- tigadores y estudiantes del Laboratorio de inteligencia artificial de la Universidad de Northwestern. El objetivo de StatsMonkey es automatizar la redacción de crónicas deportivas transformando los datos de un partido en un relato convincente. El sistema va más allá de elaborar una lista con los datos, y escribe relatos que incluyen los mismos detalles que escribiría un periodista deportivo. StatsMonkey realiza un análisis estadístico para elegir los momentos más destacados de un partido y, con un lenguaje fluido, genera un texto que resume la dinámica del juego y las jugadas más importantes.

En 2010, los investigadores de la Universidad de Northwestern que habían supervisado al equipo de estudiantes de informática y de periodismo que habían trabajado en StatsMonkey, buscaron capital de riesgo para crear una nueva empresa, a la que llamaron Narrative Science, para comercializar esta tecnología. La empresa contrató a un equipo de científicos e ingenieros informáticos que desecharon el software original de StatsMonkey y crearon un sistema de inteligencia artificial mucho más completo y con mayor potencia al que llamaron Quill («Pluma»). La tecnología de Narrative Science la utilizan importantes medios de comunicación como Forbes para redactar artículos sobre diversas áreas que incluyen deportes, negocios y política. El software redacta una noticia cada 30 segundos, y muchas se publican en sitios web muy populares que prefieren no reconocer el uso de sus servicios. En 2011, en un congreso de la industria, el redactor deWired Steven Levy pidió a Kristian Hammond, cofundador de Narrative Science, que predijera el porcentaje de artículos que se escribirían usando algoritmos en los próximos 15 años. Su respuesta fue contundente: más del 90%.

Narrative Science ha dirigido sus miras más allá de la industria periodística. Quill es un sistema de uso general para el análisis y la redacción de escritos capaz de generar informes de alta calidad para consumo interno o externo de muchas industrias. Empieza recopilando información de una variedad de fuentes como bases de datos de transacciones, informes financieros y de ventas, sitios web e incluso redes sociales. A continuación realiza un análisis en el que define cuáles son los hechos y las ideas más importantes e interesantes, y redacta un texto coherente con toda la información obtenida. La empresa afirma que el trabajo es equiparable al del mejor analista humano. Cuando el sistema se ha configurado, Quill puede generar informes comerciales casi al instante y los entrega sin intervención humana. Puesto que uno de los primeros inversores de Narrative Science fue In-Q-Tel, el fondo de capital de riesgo de la CIA, es muy probable que Quill se use para automatizar la traducción de datos brutos recopilados por los servicios de inteligencia de Estados Unidos a un formato narrativo fácil de entender. La tecnología de Quill indica hasta qué punto son vulnerables a la automatización tareas que antes eran exclusivas de profesionales cualificados con estudios superiores. Naturalmente, el trabajo basado en el conocimiento exige una amplia gama de aptitudes. Entre otras cosas, un analista tiene que saber obtener información de una variedad de sistemas, elaborar modelos estadísticos o financieros, y redactar informes fáciles de entender. En principio, la redacción —que es tanto un arte como una ciencia— parece una de las últimas disciplinas que se podrían automatizar. Sin embargo, esto ya está sucediendo y los algoritmos usados mejoran cada día más. De hecho, puesto que las tareas basadas en el conocimiento se pueden automatizar solo con software, estos puestos de trabajo podrán ser más vulnerables que otros menos cualificados pero que requieren manipular objetos.

Por otro lado, muchos patronos se quejan de la redacción deficiente de los titulados universitarios. Una encuesta reciente a directivos de varias empresas reveló que más de la mitad de los empleados con diplomaturas y casi la cuarta parte de los empleados con títulos superiores redactaban mal y, en algunos casos, hasta leían mal. Si, como asegura Narrative Science, la inteligencia artificial puede rivalizar con los mejores analistas humanos, el futuro de los puestos de trabajo basados en el conocimiento es muy incierto para los titulados universitarios, sobre todo para los menos preparados.

Macrodatos (Big Data) y aprendizaje automático

El sistema de redacción de Quill solo es una de las muchas aplicaciones de software que se están desarrollando para aprovechar la enorme cantidad de información que se está recopilando y acumulando en empresas, organizaciones y gobiernos de todo el mundo. Se calcula que el total de la información reunida se mide en miles de exabytes (un exabyte equivale a 1.000 millones de gigabytes). Esta cantidad aumenta siguiendo su propia Ley de Moore y se duplica cada tres años. Puesto que casi toda la información se almacena en formato digital, puede ser tratada por ordenador. Los servidores de Google trabajan con cerca de 24 petabytes de datos al día (equivalentes a 1 millón de gigabytes), y casi todos corresponden a peticiones hechas a su buscador. Toda estos datos proceden de una multitud de fuentes diferentes. En el caso de Internet, estos datos se refieren a visitas a páginas, búsquedas, correos electrónicos, interacciones en redes sociales o publicidad interactiva, solo por citar unos ejemplos. En el caso de las empresas hay transacciones, contactos con clientes, comunicaciones internas y datos sobre finanzas, contabilidad o marketing. Fuera de la red, en el mundo real, hay sensores que envían constantemente datos sobre diversos aspectos de fábricas, hospitales, automóviles, aviones, máquinas industriales o artículos de consumo.

La gran mayoría de estos datos son lo que un científico informático llamaría datos «no estructurados». En otras palabras, se recopilan en una variedad de formatos que difícilmente se pueden cotejar o comparar. Es algo muy diferente de los sistemas tradicionales de bases de datos relacionales donde la información se organiza en filas y columnas que hacen que la búsqueda y la recuperación de los datos sea muy rápida, fiable y precisa. La naturaleza no estructurada de los macrodatos ha impulsado el desarrollo de métodos nuevos para hacer uso de la información procedente de una variedad de fuentes. La rápida mejora en este campo solo es un ejemplo más de que los ordenadores están empezando a encargarse de tareas que antes estaban a cargo de personas. Después de todo, una de las características más exclusivas del ser humano es su capacidad para procesar continuamente torrentes de información no estructurada procedentes de su entorno. La diferencia, claro está, es que en el ámbito de los macrodatos los ordenadores son capaces de hacer lo mismo a una escala que para una persona sería imposible. Los macrodatos están teniendo un impacto revolucionario en una gama muy amplia de áreas, incluyendo la industria, la política, la medicina y casi cualquier campo de las ciencias naturales y sociales.

Las principales empresas de comercio minorista recurren a los macrodatos para obtener un nivel de conocimiento sin precedentes de las preferencias de los consumidores. Con esta información pueden hacer ofertas muy ajustadas a esas preferencias con el fin de aumentar sus beneficios y crear lealtad en los consumidors. Departamentos de policía de todo el mundo están empleando análisis algorítmicos para predecir los momentos y lugares con más probabilidades de que se produzcan delitos. El portal ciudadano del ayuntamiento de Chicago permite a los residentes ver tendencias históricas y datos en tiempo real sobre una variedad de áreas en la vida de una gran urbe como el uso de energía, la delincuencia, el transporte urbano, las escuelas, los centros médicos e incluso el número de baches arreglados en un periodo dado. Instrumentos que permiten visualizar de maneras nuevas datos recopilados de interacciones en redes sociales y de sensores integrados en puertas, torniquetes o escaleras automáticas, ofrecen a los planificadores urbanos y a los administradores públicos representaciones gráficas de la forma en que la gente se mueve, trabaja e interactúa en entornos urbanos, un desarrollo que quizá nos ayude a que las ciudades sean más eficientes y habitables.

Con todo, también hay una cara oscura. La empresa Target ha ofrecido un ejemplo de que los datos muy detallados sobre los consumidores se pueden usar de una manera muy polémica. Un científico que trabajaba para Target halló una serie de correlaciones muy complejas relacionadas con la compra de 25 clases de productos para la cosmética y la salud que indicaban un estado incipiente de embarazo. Este análisis incluso podía calcular la fecha aproximada del nacimiento de un bebé. Target empezó a bombardear a mujeres con ofertas para embarazadas en unas etapas tan iniciales del embarazo que, en algunos casos, las interesadas aún no habían dado a conocer su estado a sus familiares más cercanos. En un artículo publicado a principios de 2012 en The New York Times, se decía que el padre de una adolescente se había quejado a la dirección de una tienda por haber enviado a la dirección de su hija un correo electrónico con productos para embarazadas; al final resultó que Target sabía más que él. Algunos críticos temen que esta historia más bien desagradable solo sea el comienzo, y que los macrodatos se usen cada vez más para generar predicciones que puedan violar la privacidad de las personas o incluso su libertad.

Los conocimientos obtenidos a partir de macrodatos suelen surgir de correlaciones que no dicen nada sobre las causas del fenómeno que se estudia. Un algoritmo puede hallar que si A es correcto, es probable que B también lo sea. Pero no puede decir si A es causa de B o viceversa, o si A y B se deben a un factor externo. Sin embargo, en muchos casos, y sobre todo en el ámbito de la empresa donde el éxito se mide por la rentabilidad y la eficacia y no por la comprensión de las cosas, las correlaciones pueden tener un valor extraordinario. Los macrodatos pueden ofrecer a la dirección de una empresa un nivel sin precedentes de conocimiento en una gama muy amplia de tareas: es posible analizar, con un nivel de detalle que no tiene precedentes, desde el funcionamiento de una sola máquina hasta el rendimiento global de una multinacional. Esta ingente cantidad de datos, que no deja de crecer, se ve cada vez más como un recurso del que se puede extraer provecho tanto ahora como en el futuro. Cabe suponer que, de la misma manera que las industrias del petróleo y del gas se benefician de los avances tecnológicos, la mejora de la potencia y la capacidad de los ordenadores, del software y de las técnicas de análisis permitirán a las empresas descubrir nuevos conocimientos que les darán más beneficios. De hecho, estas expectativas hacen que empresas como Facebook sean muy valoradas por los inversores.

El aprendizaje automático, una técnica por la que un ordenador procesa datos y acaba escribiendo su propio programa basándose en las relaciones estadísticas que descubre, es uno de los métodos más eficaces para extraer todo ese valor. El procedimiento suele ser este: primero se adiestra o entrena a un algoritmo con unos datos conocidos, y luego se le plantean problemas similares con datos nuevos. Una aplicación muy habitual de este aprendizaje automático es el filtraje de spam o correos electrónicos no deseados. El algoritmo se adiestra con el análisis de millones de correos electrónicos que ya han sido separados en correos deseados y no deseados. Nadie se sienta y programa el sistema para que reconozca cada variante concebible de la palabra «viagra»: el software lo hace por su cuenta. El resultado es un programa que puede identificar automáticamente la gran mayoría de los correos electrónicos de propaganda (junk) y que se adapta a los correos nuevos de esta clase que vayan apareciendo. Unos algoritmos de aprendizaje basados en los mismos principios son los que recomiendan libros en Amazon, películas en Netflix y posibles citas amorosas en Match.com.

Una de las demostraciones más claras del poder del aprendizaje automático fue cuando Google introdujo su sistema de traducción en Internet. Sus algoritmos utilizan lo que se podría llamar un enfoque piedra de Rosetta analizando y comparando millones de páginas de texto que ya han sido traducidas a distintos idiomas. El equipo de desarrollo de Google empezó centrándose en documentos oficiales elaborados por Naciones Unidas y después extendieron el proyecto a la web, donde el buscador de la empresa encontró muchos ejemplos para alimentar el autoaprendizaje de los algoritmos. El gran número de documentos usados para entrenar el sistema superó a todo lo que se había visto con anterioridad. Franz Och, director el proyecto, señaló que el equipo había construido «modelos de lenguaje muy, muy grandes, más grandes de lo que nunca se había hecho en la historia de la humanidad». En 2005, Google participó en el concurso de sistemas de traducción automática que organiza cada año la Oficina Nacional de Estándares y Tecnología, una agencia dependiente del Departamento de Comercio de Estados Unidos encargada de establecer patrones de medición. Con sus algoritmos, el sistema de Google superó sin problemas a sus competidores, que usan expertos en lenguajes y en lingüística y que programan sus sistemas para que se adentren en la maraña de reglas gramaticales, contradicciones e incoherencias propias del lenguaje humano. La lección más importante a extraer de todo esto es que el conocimiento que se obtiene de inmensos conjuntos de datos supera el obtenido con los esfuerzos de los mejores programadores. Aunque el sistema de Google aún no se puede equiparar a un traductor humano, hace traducciones directas e inversas entre más de 500 idiomas. Esto supone un avance enorme en la comunicación: por primera vez en la historia de la humanidad, cualquier persona puede traducir cualquier documento a cualquier idioma de una manera instantánea y gratuita.

Aunque hay muchos enfoques diferentes de aprendizaje automático, uno de los más potentes y fascinantes es el basado en el empleo de redes neurales, que utilizan los mismos principios básicos que el cerebro humano. Aunque el cerebro contiene unos 100.000 millones de neuronas que establecen billones de conexiones entre ellas, es posible construir sistemas de aprendizaje muy potentes usando configuraciones mucho más rudimentarias de neuronas simuladas. Una neurona funciona como los juguetes de plástico con sorpresa (pop-up) que son tan populares entre los niños pequeños. Cuando el niño aprieta un botón, del extremo superior del juguete surge una figura como un personaje de dibujos animados o un animal. Si se presiona el botón con suavidad no pasará nada. Si se presiona con un poco más de fuerza seguirá sin pasar nada. Pero si se supera cierto umbral de fuerza la figura aparecerá. Una neurona funciona casi igual, con la excepción de que el botón puede ser presionado por una combinación de inputs o entradas.

Para visualizar una red neural, imaginemos uno de esos inventos del profesor Franz de Copenhague con varias hileras de juguetes dispuestas en el suelo. Sobre el botón que activa cada juguete hay tres dedos mecánicos. En lugar de hacer que aparezca una figura, los juguetes están configurados para que cuando se active uno, varios de los dedos mecánicos de la hilera siguiente presionen sobre sus propios botones. La clave de la capacidad de la red neural para aprender es que la fuerza ejercida por cada dedo en su botón respectivo se puede ajustar. Para adiestrar la red neural alimentamos la primera hilera de neuronas con datos conocidos. Por ejemplo, imaginemos que damos a la red imágenes de letras escritas a mano. Estos datos de entrada o input hacen que algunos dedos mecánicos presionen con distinta fuerza dependiendo de su calibración. A su vez, esto hace que algunas neuronas se activen y presionen los botones de la hilera siguiente. La respuesta o output se obtiene de la última hilera de neuronas. En este caso, la salida será un código binario que identifique la letra del alfabeto que corresponda a la imagen de entrada. En un principio, la respuesta será errónea, pero nuestra máquina también incluye un mecanismo de comparación y retroalimentación.

La salida se compara con la respuesta correcta que ya es conocida, y esto se traduce automáticamente en adaptaciones de los dedos mecánicos de cada fila, lo que a su vez altera la secuencia de activación de las neuronas. A medida que la red se adiestra con miles de imágenes conocidas y la fuerza que ejercen los dedos se calibra continuamente, la respuesta de la red es cada vez mejor. El adiestramiento de la red finaliza cuando sus respuestas ya no mejoran. Así es, en esencia, el uso de redes neurales para reconocer imágenes, palabras habladas, traducir idiomas o realizar una variedad de tareas. El resultado es un programa —en esencia, una lista de todas las calibraciones finales para los dedos mecánicos— que se puede usar para configurar nuevas redes neurales, todas capaces de generar respuestas automáticamente a partir de datos nuevos.

Las primeras redes neurales artificiales se remontan a finales de los años cuarenta y desde entonces se han usado para reconocer pautas. Sin embargo, durante los últimos años se han dado una serie de avances que han mejorado mucho su rendimiento, sobre todo si se emplean múltiples capas de neuronas en una tecnología que recibe el nombre de «aprendizaje profundo». El asistente Siri de Apple ya utiliza sistemas de aprendizaje profundo para reconocer la voz, y estos sistemas también acelerarán el progreso de una amplia gama de aplicaciones basadas en el análisis y el reconocimiento de pautas. Por ejemplo, una red neural de aprendizaje profundo diseñada en 2011 por científicos de la Universidad de Lugano en Suiza, fue capaz de identificar correctamente más del 99% de las imágenes de una gran base de datos de señales de tráfico superando a los expertos humanos que competían con ella. Investigadores de Facebook han desarrollado un sistema experimental con nueve niveles de neuronas artificiales que puede determinar si dos fotografías son de la misma persona un 97,25% de las veces, aunque varíen las condiciones de iluminación o la orientación de las caras; en comparación, la precisión de observadores humanos es del 97,53%.

Geoffrey Hinton, de la Universidad de Toronto, uno de los principales investigadores en este campo, señala que la tecnología de aprendizaje profundo «crece a la perfección. En esencia, lo único que hace falta para que mejore es hacerla más grande y más rápida». En otras palabras, aun sin tener en cuenta posibles mejoras en cuanto a diseño, es indudable que los sistemas de aprendizaje automático basados en redes de aprendizaje profundo seguirán progresando simplemente como consecuencia de la Ley de Moore.

Los macrodatos y los algoritmos inteligentes que los acompañan están teniendo un impacto inmediato en muchos puestos de trabajo y en muchas carreras profesionales, porque las empresas, y especialmente las grandes corporaciones, siguen cada vez más un gran número de parámetros y datos estadísticos relativos al trabajo y las interacciones sociales de sus empleados. Las empresas recurren cada vez más a los llamados «análisis de personal» para contratar, evaluar, ascender o despedir a sus empleados. La cantidad de datos que se recopilan sobre cada persona y sobre el trabajo que realiza es asombrosa. Algunas empresas toman nota de cada tecla que se pulsa. También se recopilan datos sobre correos electrónicos, llamadas telefónicas, búsquedas en páginas web, consultas a bases de datos, accesos a archivos, entradas y salidas de instalaciones, y muchísimas otras clases de información, con o sin el conocimiento de los empleados. Aunque el objetivo inicial de tantos análisis es controlar y evaluar de una manera eficaz el rendimiento de los empleados, con el tiempo se podrían usar para otros fines, incluyendo el desarrollo de software para automatizar gran parte del trabajo que realizan estas personas.

Es muy probable que la revolución de los macrodatos tenga dos consecuencias especialmente importantes para los puestos de trabajo basados en el conocimiento. En primer lugar, los datos almacenados pueden dar lugar, en muchos casos, a la automatización directa de unas tareas concretas. Los algoritmos inteligentes suelen tener el mismo éxito que una persona que practica la ejecución de unas tareas concretas para aprender un trabajo nuevo. Consideremos, por ejemplo, que en noviembre de 2013 Google solicitó la patente de un sistema diseñado para generar automáticamente respuestas a correos electrónicos y comentarios en redes sociales. El sistema funciona analizando los correos electrónicos y las interacciones en redes sociales de un usuario. Luego, basándose en lo aprendido, escribirá automáticamente respuestas a correos electrónicos, mensajes de Twitter o blogs con las maneras y el estilo de la persona estudiada. Es fácil imaginar que un sistema como este se pueda llegar a utilizar para automatizar muchas comunicaciones de orden rutinario.

Los vehículos automatizados de Google, que aparecieron en 2011, también nos dan una idea del camino que podría seguir la automatización basada en datos. Google no se propuso reproducir la forma de conducir de una persona y, en realidad, esto habría estado más allá de la capacidad actual de la inteligencia artificial. En cambio, ha simplificado el reto diseñando un potente sistema para procesar datos y poniéndolo sobre ruedas. Los coches de Google se guían por la información de un sistema GPS y por grandes cantidades de datos cartográficos muy detallados. Además, los vehículos cuentan con radares, telémetros láser y otros sistemas que ofrecen un flujo continuo de datos en tiempo real y permiten que el coche se adapte a situaciones imprevistas como un peatón que entre en la calzada. Puede que conducir no sea una profesión de cuello blanco, pero la estrategia usada por Google se puede extender a muchas áreas. Primero, empleando cantidades masivas de datos históricos para crear un «mapa» general que permita a los algoritmos realizar tareas rutinarias. Luego, incorporando sistemas de autoaprendizaje que se puedan adaptar a variaciones o situaciones imprevistas. El resultado será un software inteligente capaz de llevar a cabo, con un alto grado de fiabilidad, muchas tareas basadas en el conocimiento.

El segundo y quizá más importante impacto en los trabajos basados en el conocimiento se dará como resultado de la forma en que los macrodatos cambian las organizaciones y sus métodos de gestión. Los macrodatos y los algoritmos predictivos tienen el potencial de transformar la naturaleza y el número de los puestos de trabajo basados en conocimientos que hay en industrias y organizaciones de todos los ámbitos. Las predicciones extraídas de los datos se usarán cada vez más para sustituir cualidades humanas como el juicio y la experiencia. A medida que los altos directivos tomen cada vez más decisiones basándose en datos ofrecidos por sistemas automatizados, la necesidad de una extensa infraestructura analítica y de gestión llevada por personas se irá reduciendo. Donde hoy hay equipos de trabajadores del conocimiento que recopilan y analizan información para usarla en distintos niveles de gestión, mañana puede que solo haya un gerente que se encargue de todo usando un potente algoritmo. Las organizaciones tenderán a simplificarse. Muchos cuadros intermedios desaparecerán, y lo mismo ocurrirá con muchos puestos de trabajo que hoy ocupan oficinistas y analistas. La empresa WorkFusion, con sede en Nueva York, ofrece un ejemplo especialmente vívido del dramático impacto que tendrá la automatización de trabajos de cuello blanco en las organizaciones. WorkFusion ofrece a las empresas una plataforma de software inteligente que combi- na la automatización con la externalización informática en red para gestionar casi por completo la ejecución de proyectos que antes necesitaban de muchas personas.

El software de WorkFusion empieza analizando un proyecto para determinar cuáles son las tareas que se pueden automatizar directamente, cuáles se pueden llevar a cabo externalizándolas en una red informática, y cuáles pueden ser desempeñadas por profesionales de la empresa. Luego, el sistema publica automáticamente anuncios de trabajo en sitios web como Elance o Craigslist, y gestiona la selección y contratación de trabajadores independientes cualificados. Una vez contratados los trabajadores, el software les asigna tareas y evalúa su rendimiento. Esto lo hace pidiendo a los trabajadores que respondan a una serie de preguntas de las que ya conoce la respuesta, como prueba para medir su precisión. También hace un seguimiento de factores de productividad como la velocidad al escribir con un teclado, y ajusta automáticamente las tareas a las capacidades de cada persona. Si una persona en concreto no es capaz de finalizar una tarea dada, el sistema envía automáticamente la tarea a otra persona que sí tenga las habilidades necesarias.

Si bien el software automatiza casi por completo la gestión del proyecto y reduce drásticamente la necesidad de tener empleados en la empresa, está claro que este enfoque significa crear oportunidades nuevas para trabajadores autónomos. Con todo, la historia no termina aquí: a medida que los trabajadores terminan las tareas que les han sido asignadas, los algoritmos de aprendizaje automático de WorkFusion buscan nuevos mecanismos que les permitan automatizar aún más el proceso. En otras palabras, aunque los trabajadores independientes trabajen bajo las reglas del sistema, su trabajo se transforma en datos que adiestran a las máquinas para que la automatización los sustituyan gradualmente.

Uno de los primeros proyectos de la empresa fue recuperar la información necesaria para actualizar una colección de cerca de 40.000 discos. Antes, el cliente realizaba esta operación una vez al año contratando colaboradores a los que pagaba por hora, lo que suponía un coste de 4 dólares por disco. Tras adoptar la plataforma de WorkFusion, el cliente pudo actualizar la colección cada mes a un coste de 20 centavos por disco. WorkFusion ha descubierto que cuando su sistema de algoritmos de aprendizaje aumenta la automatización de un proceso, los costes suelen caer en un 50% durante el primer año y otro 25% al año siguiente.

El Auge de los Robots

Una lectura indispensable para cualquiera que desee comprender lo que significa el avance acelerado de la tecnología para toda la sociedad.

Escrita por: Martin Ford

Publicada por: Paidos

Fecha de publicación: 11/01/2016

Edición: 1a

ISBN: 9789501294675

Disponible en: Libro de bolsillo

Más historias deCosas que pasan

A %d blogueros les gusta esto: