esic_arrow_drop_down_18px

Explora Artículos Inside FutureFest 2018

Artículos

julio 9, 2018 9 min

Inside FutureFest 2018

Exploramos FutureFest 2018. Estas son algunas de las señales que detectamos.

FutureFest 2018

Santiago García

Un contenido de Santiago García

Compartir

La semana pasada estuvimos en Londres explorando FutureFest, un festival que persigue “aumentar la capacidad de las personas de modelar el futuro a través de conversaciones y debates sobre las últimas tendencias” y en el que año tras año, desde 2013, se dan cita “creadores de tendencias, agentes de cambio, innovadores y mentes creativas que desean mantenerse al tanto de ideas radicales”.

FutureFest se atreve a hacer las preguntas más urgentes sobre el futuro, a desafiar el status quo y a imaginar un mundo mejor. Para los asistentes es una oportunidad para debatir y experimentar hacia donde podrían evolucionar sus sectores en el futuro, así como un espacio donde explorar nuevas, audaces y sorprendentes vías para solucionar los problemas a que se enfrentan.

Este festival está organizado por Nesta, una fundación sobre innovación, nacida en Reino Unido pero de alcance global, que, a través de proyectos de investigación, redes de conocimiento, innovación y financiación, apoya nuevas ideas para hacer frente a los grandes retos de nuestro tiempo: desde las presiones de una población que envejece a un mercado laboral en constante cambio, pasando por los numerosos desafíos a los que se enfrentan los servicios públicos.

El título de la edición de este año ha sido “Occupy the future”. Un lema muy sugerente en un momento en el que algunas de las fuerzas que dan forma a nuestro futuro resultan, cuando menos, inquietantes: desde las influencias ocultas sobre los medios de comunicación, la tecnología y la política a las crecientes amenazas del terrorismo y la degradación ambiental pasando, por supuesto, por los cambios que está experimentando el mundo del trabajo…

La idea fuerza: ha llegado el momento de pasar a la acción.

A lo largo de dos días intensos tuvimos la oportunidad de disfrutar de muy variados debates y charlas con una cuidada selección de expertos. A continuación destaco unos cuantos:

Para empezar, Jude Kelly, fundadora del festival Women of the World, y Russ Shaw, fundador de Global Tech Advocates, que nos aportaron su visión sobre el empleo y las carreras profesionales del futuro.

¿Cómo lidiar con las barreras que aún existen respecto a la diversidad en el lugar de trabajo? ¿Cómo pueden redes globales como las suyas ayudar a las personas a avanzar y cumplir su potencial? ¿Cómo podemos amplificar las historias de éxito de personas de entornos diversos y marginados? ¿Cuál es el discurso más amplio sobre «trabajo» hacia el que debemos apuntar a 20 años vista? Estas fueron algunas de las preguntas objeto de esta conversación.

Particularmente inspirador el planteamiento de Jude cuando aboga por la necesidad de incluir en la fórmula S.T.E.M. (Science, Tech, Engineering, Mathematics), además de una “A” de Arts & design, una “C” de Caring (cuidar).

Muy reveladora también la visión de Evgeny Morozov sobre la geopolítica de la inteligencia artificial. Según este estudioso de las implicaciones políticas y sociales de la tecnología, Estados Unidos y China parecen estar de acuerdo con Vladimir Putin cuando dijo que quien domine la industria de la inteligencia artificial dominará el mundo, pero se enfrentan a esta carrera con dos modelos muy distintos: mientras Estados Unidos mantiene un enfoque más descentralizado y descoordinado, China aprovecha el poder de su gobierno para desplegar una estrategia industrial que coloca la IA en el centro de su modelo económico.

Las preguntas que surgen aquí son muchas: ¿Cuáles son las implicaciones de esta centralización del poder global sobre la IA? ¿Hay todavía esperanza de que otros actores, como la Unión Europea, Rusia e India puedan ponerse al día? ¿Cuáles son las estrategias que podrían permitirles hacerlo? ¿Y cuáles son las implicaciones si no lo hacen? ¿Existe un posible modelo alternativo que no presuponga un fuerte control gubernamental sobre los datos y los algoritmos como en China, pero que no sucumba a las tentaciones de lo que algunos han llamado «capitalismo de vigilancia» (surveillance capitalism) como en Estados Unidos?

Otra de las ponentes fue Kate Raworth, economista y autora del libro Doughnut Economics, para quien el desafío de la humanidad en el siglo XXI es muy claro: satisfacer las necesidades de todas las personas respetando los medios limitados y la fragilidad de nuestro planeta.

Según Kate las empresas necesitan contribuir a crear un futuro más próspero para la humanidad, y para ello deben evolucionar de un modelo extractivo, que responde a la pregunta “¿cuánto valor financiero podemos extraer?”, a un modelo generativo, donde la pregunta fundamental debería de ser “¿cuántos beneficios podemos generar?”.

El principal obstáculo es que para evolucionar hacia ese modelo generativo, que va más allá de hacer “cero daño al entorno”, las empresas necesitan practicar profundos ajustes en el diseño de cinco dimensiones de sus organizaciones (propósito, gobernanza, redes y relaciones, propiedad de la empresa, y calidad de las finanzas) que no todas las compañías están dispuestas a abordar.

Otro debate interesante fue el que, con la moderación de Gareth Mitchell, mantuvieron Tony Prescott, Catherine Allen y Hannah Allen sobre varias de las preocupaciones éticas asociadas a la generalización del uso de máquinas y software para el cuidado de la salud y el bienestar de las personas.

¿Están justificadas las opiniones negativas sobre la integración de soluciones de machine learning en la gestión sanitaria? ¿Puede esta tecnología ayudar a que los sistemas de salud se vuelvan más humanos y no menos? ¿Es posible que alguna vez una máquina sustituya el contacto humano y la intimidad? ¿Cómo pueden las predicciones realizadas a partir de datos comunes ayudar a la consecución de objetivos sociales? Fueron algunas de las preguntas planteadas.

También fue muy reveladora la mesa redonda en la que Karen Gregory y Frances Coppola discutieron sobre las condiciones laborales de los segmentos más desfavorecidos del mercado de trabajo en un mundo en el que para muchas personas su jefe será un algoritmo. ¿Cómo será vivir y trabajar en ese mundo? ¿Qué alternativas más centradas en el ser humano nos gustaría ver? ¿Hasta que punto la tecnología no está ayudando a las empresas a explotar la ceguera colectiva de los trabajadores y de la sociedad en general? ¿Una mayor toma de conciencia por parte de los consumidores podría ayudar a solucionar la situación?

Sobre la necesidad de que las personas tomemos una mayor conciencia de qué hay detrás de los bienes y servicios que consumimos también habló Vinay Gupta, experto en Blockchain, coordinador del lanzamiento de Ethereum en 2015 y arquitecto de la estrategia nacional de Blockchain de Dubai.

Para Vinay hay muchos problemas globales sobre los que no podemos tener un control adecuado desde el estado-nación: el cambio climático, la crisis de refugiados, las corporaciones transnacionales que operan fuera de los paraísos fiscales… Sin embargo, la respuesta podría estar en Blockchain, ya que esta tecnología puede ayudarnos a visualizar el impacto real de nuestras elecciones de estilo de vida. Por ejemplo, las emisiones de carbono generadas, de dónde provienen los materiales o, por qué no, dónde y en qué condiciones se han elaborado los productos que consumimos.

La idea es que esta tecnología nos da la posibilidad de enfrentarnos a la realidad, aunque solo si queremos, claro.

Con Noel Sharkey, profesor emérito de robótica en la Universidad de Sheffield, codirector de la Foundation for Responsible Robotics y presidente electo de la ONG International Committee for Robot Arms Control (ICRAC), exploramos los sesgos de raza y género en el campo de la robótica y la inteligencia artificial.

Aunque al principio se pensaba que la inteligencia artificial, precisamente por ser artificial, estaría libre de los sesgos que contaminan las decisiones de los humanos, hoy sabemos que esto no es así. Los sesgos humanos están presentes tanto en pequeños automatismos con los que interaccionamos en nuestra vida diaria como en las soluciones de inteligencia artificial utilizadas para evaluar el riesgo de impago de un préstamo o la posible reincidencia de un delincuente.

Las causas son varias y tienen que ver con la falta de diversidad entre los tecnólogos pero también con problemas inherentes a las técnicas dominantes hoy en día en el campo de la inteligencia artificial, como que el big data tiende a consolidar nuestros valores sociales y que las técnicas de aprendizaje automático filtran a las minorías.

Y, de nuevo, muchas preguntas: ¿Qué podemos hacer con estos problemas?¿Se requieren nuevas normativas? ¿Cuáles serían las consecuencias? ¿Supondrían un freno a la innovación? ¿Aun así valdría la pena?

En esta línea es de destacar el trabajo desarrollado por The Algorithm Justice League, un colectivo que aspira a poner en evidencia los sesgos de los algoritmos a través del arte, la ciencia y los medios de comunicación, proporcionar un espacio para que las personas planteen sus preocupaciones sobre este tema, y desarrollar prácticas responsables durante el diseño, desarrollo y despliegue de esas tecnologías.

Particularmente crítica fue la intervención del periodista y escritor Paul Mason quien defiende un humanismo radical (Mason habla de “teleología humanista”) como respuesta frente al control de las personas por parte de la inteligencia artificial y de las corporaciones en un mundo donde es difícil saber si un algoritmo está operando sobre nosotros y donde está visto que los mercados no resuelven las asimetrías de información, tal como propone la teoría económica clásica, sino que, por el contrario, las favorecen.

La llamada de Mason a la resistencia incluye, entre otros enemigos, el posmodernismo, la anti-ciencia, el post-humanismo y los movimientos neoreaccionarios.

Más radical aun es Aral Balkan, “activista por los derechos cyborg”, fundador de Ind.ie, una pequeña empresa sin ánimo de lucro, formada por “dos personas y un husky” que persigue la justicia social en la era digital. En opinión de Balkan internet debería ser para todos y no como hoy, que corporaciones y gobiernos la usan para monitorear nuestras vidas, perfilarnos, y manipular y explotar nuestro comportamiento con el fin de obtener ganancias financieras y políticas.

Frente a este “capitalismo de vigilancia” que según Balkan nos puede llevar a vivir en un nuevo feudalismo (digital), este activista aboga por la creación de tecnologías éticas, libres y abiertas, descentralizadas e interoperables, que sean propiedad y estén controladas por individuos, no por corporaciones ni gobiernos. Unas tecnologías que, tal como plantea en su “ethical design manifesto” respeten los derechos, el esfuerzo y la experiencia de las personas. Para Balkan este movimiento es, además, una oportunidad para que Europa deje de ser “el departamento de I+D gratuito de Silicon Valley”.

Finalmente, en un orden de cosas muy distinto, también fue inspirador ver y escuchar a Imogen Heap, ganadora de dos premios Grammy y fundadora de Mycelia, un “hub” de innovación para músicos. Aparte de verla actuar en vivo con sus guantes mi.mu, unos dispositivos que convierten los gestos de la artista en música, y que nos sugieren la posibilidad de un futuro de artistas transhumanos, Imogen nos presentó su proyecto The Creative Passport, una solución basada en tecnología blockchain que permite a los artistas establecer “smart contracts” con sus colaboradores y clientes, además de ser un contenedor digital de información verificada sobre el artista, créditos, agradecimientos y mecanismos de pago. Una solución que tiene el potencial de transformar las reglas del juego de la industria musical y que bien podría acabar inspirando otras soluciones similares para otros profesionales de la creatividad.

¿Te ha gustado?

Future for Work Institute funciona con un modelo de suscripción anual que incluye acceso a las actividades de nuestro calendario y a los recursos de nuestro repositorio de conocimiento, así como servicios in-company.

  • Plan

    Curiosity

    Recomendado para equipos de RRHH de entre 5 y 20 personas.

    Suscríbete

  • Plan

    Pioneer

    Recomendado para equipos de RRHH de entre 15 y 100 personas.

    Suscríbete

  • Plan

    Exploration

    Recomendado para equipos de RRHH de más de 100 personas.

    Suscríbete

  • Plan

    Horizons

    Para las organizaciones de mayor complejidad.

    Suscríbete