Mobail – Capítulo 2: Javier Perez

Bienvenidos a Mobail, el podcast de la gente que trabaja en, con y para internet. Andrés Oliva charla con trabajadores del mundo digital y las redes sociales. En este capítulo: Javier Perez.

Mobail – Capítulo 3: Java Pez

Bienvenidos a Mobail, el podcast de la gente que trabaja en, con y para internet. Andrés Oliva charla con trabajadores del mundo digital y las redes sociales. En este capítulo: Java Pez.

Mobail – Capítulo 4: Ricardo Heurtley

Bienvenidos a Mobail, el podcast de la gente que trabaja en, con y para internet. Andrés Oliva charla con trabajadores del mundo digital y las redes sociales. En este capítulo: Ricardo Heurtley.

Mobail – Capítulo 6: Ulises Hoyos Lozano

Bienvenidos a Mobail, el podcast de la gente que trabaja en, con y para internet. Andrés Oliva charla con trabajadores del mundo digital y las redes sociales. En este capítulo: Ulises Hoyos Lozano.

Mobail – Capítulo 5: Lucas Seco

Bienvenidos a Mobail, el podcast de la gente que trabaja en, con y para internet. Andrés Oliva charla con trabajadores del mundo digital y las redes sociales. En este capítulo: Lucas Seco.

Mobail – Capítulo 7: Javier Pallero

Bienvenidos a Mobail, el podcast de la gente que trabaja en, con y para internet. Andrés Oliva charla con trabajadores del mundo digital y las redes sociales. En este capítulo: Javier Pallero.

UPP – Inteligencia artificial

Marcelo Rinesi es un científico de datos freelance y tecnólogo. Es CTO del Institute for Ethics and Emergent Technologies, cofundador del grupo de arte + data Datasthesia, y miembro del Instituto Baikal. Ha publicado o sido citado sobre la ética, política, y tecnología de inteligencias artificiales, gamificación, y otras tecnologías emergentes en publicaciones como Forbes, Wired, Rolling Stone, y Fast Company.

Tuvimos la suerte de poder hacerle a Marcelo algunas preguntas en torno a trabajo, inteligencia artificial y robótica. Las respuestas que nos dio son interesantísimas y bastante largas así que decidimos poner en esta oportunidad solo aquellas que se enfocan en la inteligencia artificial.

¿Qué trabajos serán inevitablemente realizados por robots?

A largo plazo no veo límites intrínsecos en la física o la ingeniería para lo que pueda hacer o no un robot. Lo que contextualmente va a estar a salvo de los robots va a ser siempre lo que una sociedad quiera o prefiera que haga un humano porque si lo hiciese un robot perdería la gracia. El deporte por ejemplo es un caso. Lo mismo pasa con los trabajos de servicio donde hasta cierto punto el hecho de que una persona lo esté haciendo es parte por lo cual estás pagando. Pagas por status en cierto sentido, sino no habría mozos en los restaurantes: te parás, agarrás tu comida y te sentás. Y cosas como administración, política o arte dónde también hasta cierto punto mucho se podría hacer con una máquina pero preferimos por una razón u otra, más social y hasta a veces más inconsciente, que lo haga una persona.

Tal vez el efecto más importante de los autos sin piloto a largo plazo es que justamente son el primer caso de una actividad así, dónde el cambio no es en un warehouse sino el mundo real. Si podes hacer un sistema que sea más o menos seguro y útil en ese sentido, podes empezar a tener robots en todos lados.

También puede cambiar todo lo que son los campos en los que todavía no está muy claro qué es hacerlo bien y qué es hacerlo mal. Eso preferimos dárselo a humanos muchas veces no tanto porque lo hagan mejor, sino porque está bueno (o queremos que esté bueno) poder echarle la culpa a alguien. En la medida en que la performance de los robots mejore eso se va a ir erosionando.

Tal vez por las siguientes décadas no imagino robots que sean mejores que los cirujanos en todos los aspectos pero es inevitable que suceda en un momento u otro. Vas a tener sociedades en las que quieren a una persona a cargo por razones sociales, culturales o políticas. Y otras en las que no.

¿La inteligencia artificial puede reemplazar al trabajo intelectual? Si es así: ¿a cuáles?

Cualquier actividad (incluso la intelectual) que sepamos bien cómo se hace, se puede programar. De hecho, esa es una posible definición de programar. Qué es trabajo intelectual en ese sentido es una frontera que se mueve con el tiempo. Hay muchas cosas que hoy en día son automatizables y que en algún momento eran actividades intelectuales que rayaban con lo artístico (fórmulas matemáticas, búsquedas de patrones, etc.). Incluso lo que hoy en día se define como redes neuronales es básicamente autoprogramar dando muchos ejemplos en vez de programar uno a mano.

En ese sentido la respuesta es sí y no. Sí porque muchas cosas que llamamos trabajo intelectual, tal vez eventualmente todas las que hoy conocemos, se pueden hacer con inteligencias artificiales, tarde o temprano. Y no porque a medida que una computadora puede hacerlo vamos cambiando la frontera de lo que es trabajo intelectual.

 

¿Hay manera de ejercer control sobre cómo funciona la inteligencia artificial? ¿Qué pasa con la inteligencia artificial que “aprende”?

Controlar a una inteligencia artificial es más fácil que controlar a una persona. Es más simple, es más transparente, la hiciste vos y es mucho más monitoreable, a todos los niveles. Las personas también aprenden pero la inteligencia artificial aprende en un sentido muy específico, en un dominio particular para el cual la diseñaste para que aprenda. Un ejemplo: tu programa de monitoreo de cámaras que aprende a lo largo del tiempo qué patrones predicen un posible acto de vandalismo. Va a aprender sobre eso, no va a aprender espontáneamente política de alguien que hable de política todos los días en la esquina. Eso es ciencia ficción, es fantasía.

Bueno, podemos tener bajo nuestro control todo lo que las máquinas aprenden. Ahora bien: ¿cómo controlamos las potenciales consecuencias de las tareas que llevan a cabo?

El problema de controlar la inteligencia artificial es más bien de la legislación y política de control industrial que algo más existencial o algo más sofisticado. Es difícil, sí. Es sofisticado, sí. No es filosóficamente tan complicado. Si se lo plantea como complicado es por cuestiones de lavado de manos. Desarrollemos el ejemplo de las Lethal autonomous weapons para entenderlo:

Hay una ametralladora conectada a una cámara de inteligencia artificial en un poste en una frontera. Hay un nenito perdido que camina hacia la frontera. La cámara cree que es un contrabandista, le hace un aviso para que retroceda. El chico no entiende, no escucha, está muy asustado. El arma le dispara y lo mata. Es un caso extremo pero puede pasar si pones cámaras en todos lados.

En ese momento podemos hablar de los peligros de la inteligencia artificial que Asimov llamaba el efecto Frankenstein. Pero es un caso letal de falla industrial. Una empresa construyó y diseñó esa arma para luego venderla probablemente haciendo promesas de confiabilidad que no merecía tener. No es que es imposible de certificar, de preparar, de analizar. Uno puede hacer predicciones sobre eso, uno puede prevenir. Tal vez no con el 100% de seguridad pero cuanto más dinero pongas en prevención y menos rápido quieras vender algo, más seguro va a ser. Un gobierno compró esa arma y la puso ahí sabiendo que corría un riesgo. Si fue engañado por la empresa entonces: ¿por qué no puso su propio sistema de verificación y control? ¿Tomó el riesgo deliberadamente? Si es una democracia hay una sociedad que eligió a ese gobierno que tomó la decisión de poner el arma ahí. Las responsabilidades éticas son humanas.

El concepto de autonomía es todavía y por bastante tiempo metafórico. La autonomía de un auto que maneja solo no es la autonomía de una persona. La autonomía de un auto que maneja solo es la autonomía de un robot industrial que dejamos ir por la calle y que si mata a alguien lo mató por mal diseño. Toda tecnología tiene sus riesgos (incluso los autos hoy en día). Toda sociedad explícita o implícitamente decide el nivel de riesgo que corre. Si una caldera explota no es responsabilidad de la caldera sino que es un problema de diseño, mala praxis o parte del riesgo que nosotros aceptamos. Va a ser lo mismo con las tecnologías más avanzadas. El problema lo puede tener la tecnología pero la responsabilidad moral es de la empresa que lo hizo, la persona que lo compró o el gobierno que lo certificó.

 

 

UPP – Neutralidad de la red

UPP es Un Podcast Para… casi todo. Vamos a abordar algunos de los temas más importantes que se van desarrollando semana a semana, tratando de no limitarnos en las temáticas y abriendo la cancha a diversas opiniones y testimonios. En este capítulo conversamos sobre neutralidad de la red con Javier Pallero, Analista de Políticas Públicas en Access Now, una organización internacional sin fines de lucro dedicada a la defensa de los derechos digitales en internet.

UPP – Reforma jubilatoria

UPP es Un Podcast Para… casi todo. Vamos a abordar algunos de los temas más importantes que se van desarrollando semana a semana, tratando de no limitarnos en las temáticas y abriendo la cancha a diversas opiniones y testimonios. En esta oportunidad charlamos sobre la reforma jubilatoria que se está discutiendo en nuestro país por estos días. Para eso invitamos a Sol Minoldo, Doctora en Ciencias Sociales e investigadora del CONICET.

Game Groovers – Capítulo 8: Thank you, your quest is over

Game Groovers es un podcast en el que charlamos sobre esa pasión que son los videojuegos. A lo largo de los programas recorreremos los hitos más característicos del mundo del gaming. Cierre de temporada con los chicos haciéndose un intenso ping pong de preguntas y respuestas gamers.