top of page
  • Ignacio "Zipi" González

Sci-philosophy: filosofía del futuro

Actualizado: 17 abr 2021

LA CURVA charló con Juan Fernández Zaragoza, miembro del proyecto Filosofía del Futuro, en la previa de la charla organizada por (re)Pensando, Club de Filosofía de la UTDT.


Por IGNACIO "ZIPI" GONZÁLEZ


Un texto se extiende más allá de la pantalla negra del celular. Las letras, pequeñas, se hacen ilegibles. Scrolleo. Parece no terminar más. Al final, una casilla vacía. “Acepto las Condiciones del servicio y la Política de privacidad”. Aprieto en el cuadrado y se dibuja un tick. Es un reflejo instintivo. Pongo mi dedo en el rectángulo azul. “Aceptar”.


De repente me surgen las preguntas: ¿Qué datos estoy dando a esta empresa? ¿Cómo los usará? ¿A qué le estoy dando acceso? ¿Cuál es el impacto real del permiso que estoy otorgando? ¿Tiene consecuencias directas en mi vida? ¿Y mi privacidad?


Todas estas preguntas se las hace Juan Fernández Zaragoza.


Tal vez lo esté exagerando un poco. Así me imagino su cabeza, navegando alrededor de esa vorágine de cuestiones que, para muchos, no es más que un campo oscuro. Su oficio es este ejercicio.


Juan está caminando los últimos pasos de dos licenciaturas en la Universidad de Buenos Aires: Filosofía y Ciencias de la Computación. Forman el corpus teórico con el que nutre su lente crítico. Su objeto no es otra cosa que el futuro mismo, ese plano donde todas nuestras aspiraciones e incertidumbre se posan. Lleva la pregunta filosófica a la vanguardia de la técnica e intenta mirar el avance tecnológico como un territorio donde se disputan sentidos, poderes y experiencias.


El año pasado empezó, junto a un equipo interdisciplinario, su proyecto. Filosofía del Futuro es un newsletter que saluda a tu casilla de correo con artículos que despiertan la curiosidad y el juicio crítico del lector en torno avances y problemas de hoy y mañana: inteligencia artificial, neurociencia, automatización, internet, datos.


Esto charlamos:


Pensando desde esta coyuntura histórica específica, ¿por qué es necesaria una filosofía del futuro?


La filosofía no solo es interesante. Nos importa de por sí, pero no es eso lo único que le da fuerza. El marxismo, por ejemplo, defiende la idea de una filosofía para transformar el mundo. También es útil para resolver problemas particulares de distintas disciplinas. En diseño de tecnologías hay comités de ética, por ejemplo. Si queremos que la filosofía tenga efecto, tenemos que entender qué está sucediendo. La filosofía del futuro sirve para llevar la pregunta filosófica a la vanguardia de la técnica. Es necesaria para la propia disciplina. Es muy importante ver qué está pasando en neurociencia, en las ciencias cognitivas, en inteligencia artificial. No sirve quedarse en lo que dijeron Platón, Descartes o Kant.


En uno de tus artículos hablás de adoptar para con la tecnología el “ethos marxista”. Es decir, no ser ni apocalípticos ni demasiado tecnofílicos, sino tener una perspectiva crítica.


Es la línea que mantenemos. La perspectiva crítica es, en primer lugar, entender bien de qué se está hablando en cada contexto cuando se habla de, por ejemplo, inteligencia artificial. Por otro lado, es prestarle mucha atención a la parte humana. Una tecnología se puede pensar como un aumento de la libertad. Es casi un sinónimo de un aumento del poder. Esto implica que podemos hacer más cosas buenas, pero también malas.


No es necesariamente una perspectiva desde el marxismo, sino adoptar su actitud.


Sí. La tecnofobia y la tecnofilia tienen un correlato en el siglo XIX. De la misma manera que ahora tenemos nuevas tecnologías dadas por la computación, en ese momento las teníamos dadas por la máquina de vapor. Además de las posturas romántica y positivista, existió una tercera que muchas veces no se menciona, con más capacidad de modificar el mundo, ya que hace las críticas internamente. Entiende la tecnología, sus cosas buenas, malas, sus capacidades. Es una propuesta capaz de mejorar las cosas, no tan conservadora como la crítica romántica.


¿Qué herramientas recomendarías para que alguien de ciencias blandas salga de la caverna tecnológica?


Pensado en amplitud, el lenguaje puede ser considerado una tecnología. Es un invento humano que nos permite expandir nuestra libertad. Las cuestiones culturales son tecnológicas. Si se piensa a la tecnología de software como relaciones entre sistemas simbólicos, es una entidad de tipo lingüístico. Por otro lado, lo que en la cotidianeidad llamamos tecnología hoy se divide entre software (programas, apps, sistemas operativos) y hardware (computadoras, robots, periféricos). Desde Filosofía del Futuro empezamos un curso que se llama "Ver Sistemas". Busca pensar de qué manera se puede traducir lo que ya era tecnología (desde el lado cultural, lingüístico y humanístico) a software. Estamos leyendo un libro de William Ross Ashby que se llama Introducción a la Cibernética. El curso va a estar público y lo recomiendo.

¿Y hardware?


—La movida de "tecnologías de hardware libre". A mi me gusta llamarla “hardware popular”. Cualquiera puede construir y, lo que se hace, es publicado de manera libre. La idea es volverla lo más accesible posible. En ingeniería existe el concepto de modularización: usar una parte o conocimiento ya acabado. Tenés, por ejemplo, cuatro piezas que no sabes cómo funcionan pero sabes qué hacen y las armas como Legos. Esto permite un acercamiento al desarrollo tecnológico mucho más directo y fácil.


Es la lógica que tiene la robótica introducida en los colegios secundarios y primarios: piezas individuales con una función que los chicos tienen que ir asociando.


Exacto. Uno después tiene que abrir esos módulos, romper las cajas negras y entender cómo funcionan. Eso también aumenta la soberanía y la libertad.


Pero primero hay que conocer para romper.


Claro. Hay que conocer para romper y romper para conocer. Sin embargo, casi todas las tecnologías que se hacen hoy en la industria no tienen las documentaciones de los módulos accesibles para todo público.


Eso está relacionado a lo que vos denominas “oligopolios informáticos”. ¿Considerás peligrosa la concentración del conocimiento y de la accesibilidad de los datos?


Considero que hablar de esto no es algo zurdo per se. No es una cuestión de si somos radicales, peronistas, trotskistas o liberales. Cualquier persona con ideales democráticos debería estar preocupada. El oligopolio informático se parece mucho a los despotismos ilustrados del siglo XVIII. Son pocas empresas que concentran en sí muchos poderes distintos. En conjunto, pueden sobrepasar a la democracia. Una red social es más efectiva para transmitir discursos que los medios tradicionales. Los oligopolios tienen un poder muy grande en la capacidad de automatizar, ya que son los únicos que pueden desarrollar robótica de alta calidad. También concentran capacidad de cómputo para hacer algoritmos que pueden automatizar tareas intelectuales. Van a tener la potestad respecto a cómo se va a dar el futuro de trabajo. Vamos a depender de las buenas intenciones de estas empresas.


Uno de los problemas que mencionás relacionado a esto es el delito proxy”.


—Sí, es una institución de la que tenemos que empezar a hablar. Es algo que sucedió mucho, sobre todo en la historia política de América Latina. Se atacó a gobiernos con cierta ideología usando algún otro hecho como proxy (aproximado), es decir, chivo expiatorio. Un caso paradigmático es el de Lula. Se apeló a una irregularidad con un departamento, pero la intención por detrás no era esa. El delito proxy es le da al oligopolio informático la capacidad de hacer eso con cualquier gobierno. Lo que pasó con Lula en Brasil, en principio, podría pasar con cualquier persona y cualquier dirigente político. Si, por ejemplo, Mark Zuckerberg quiere, tiene la evidencia en sus manos para hacerlo.


Se podría argumentar "no importa, el delito está hecho". Pero, de igual forma, vos decís que los oligopolios pueden usar esa concentración de poder de forma arbitraria.


Es que hay un margen muy complejo en torno a cómo funciona la ley. Por ejemplo, la marihuana es ilegal, pero no conozco a casi ninguna persona de mi edad que no haya fumado. Cuando existe este margen entre delitos, que en la práctica nunca se penalizan, el problema es la asimetría. A algunas personas se las castiga y a otras no. Supongamos que no hay polémica de que Lula debe ir preso. Pero cuando se ataca a un color político por algo que también comete el otro, entonces tenés una situación donde un delito actúa como proxy para lograr otro objetivo.


¿Es la intervención del Estado la alternativa a los oligopolios? ¿O puede acarrear los mismos problemas?


Creo que hay que hacer lo que se pueda por todos los medios posibles. No se si los estados son suficientes. Tal vez es una lucha imposible. Hagamos lo imposible y no se.


Tengamos la discusión y veamos cómo...


Y hagamos la práctica asociada. Armemos grupos de tecnologías libres en toda Latinoamérica. Intentemos usar más software libre y exijamos a los Estados que contribuyan.


¿La inteligencia artificial puede reemplazar a las disciplinas intelectuales? ¿Es posible llegar a la completa automatización?


Está el argumento que da Yuval Noah Harari. Las actividades humanas solo tienen una carga intelectual y una carga manual. El dice que, si surge una tecnología capaz de reemplazar ambas, entonces todo laburo es automatizable. Sin embargo, en la práctica, hay ciertas tareas que son mucho más difíciles de automatizar que otras. Las que consideramos creativas son más complicadas de reemplazar. Las manuales, que necesitan responder a cosas que percibimos intuitivamente (una leve sonrisa o la mirada), son muy difíciles de automatizar en una máquina. Es lo que se llama Paradoja de Moravec: todas las cosas que hacemos y nos salen muy automáticas son las más difíciles de modelar. Esto sucede porque, cuando las realizamos, no las racionalizamos. Hay algunos trabajos que son irremplazables, pero son los que a nivel producción de bienes menos aportan: el arte, las humanidades, los acompañantes terapéuticos o enfermería. Si alguien quisiera tener el control total de la industria, puede hacerlo sin personas.


—Un miedo ya clásico de la cultura pop es la rebelión de las máquinas: ¿es posible que la inteligencia artificial se vuelva en contra de nosotros?


Hay muchas aristas desde donde se puede responder esta pregunta. Pero la pregunta interesante es si existen mecanismos a partir de inteligencia artificial que, de forma sistemática, pueden hacer algo malo contra la humanidad. La respuesta es sí, cualquier sistema puede hacerlo, obviando el problema de si tiene o no conciencia. Ahora, ¿cuándo un sistema puede hacer sistemáticamente un mal que no previmos? Para empezar, esa conducta no tiene que estar programada. Para que eso suceda, tiene que tener un nivel de complejidad grande, como para que no podamos predecirlo.


¿Sería algo similar a cuando se diseña una política económica y los resultados son lo contrario a lo que se quería?


—Parecido, pero hay una pequeña diferencia. En ese caso hay personas que no se están controlando. Poner un límite a la compra de divisas, por ejemplo, puede fallar porque no se previó que todo el mundo iba a comprar dólares para venderlos en blue. En cambio, a nivel de programación, sería análogo a decirle a cada persona qué tiene que hacer y que, interactuando, den como resultado un fenómeno macroeconómico no previsto. No se me ocurre un caso claro de eso ahora…


Lo pienso, por ejemplo, en videojuegos. Yo puedo programar ciertos personajes (NPC) dentro y puede ser que haya un error, no previsto, en ese diseño que haga que cierta interacción entre ellos termine generando un glitch o error.


—Exacto, ese es un buen ejemplo. Y lo sorprendente es que casi todos los algoritmos poderosos de hoy no son predecibles. Pero, así como te contesto esto, también me gusta aclarar que lo importante no es si las máquinas se vuelven contra nosotros o no. Es más posible que los humanos se vuelvan contra nosotros usando las máquinas a que estas, impredeciblemente, puedan hacernos algún mal.


 

Juan Fernández Zaragoza va a estar dictando la primera charla organizada por (re)Pensando, el Club de Filosofía de nuestra universidad: "¿Qué es la filosofía de la inteligencia artificial?”.


El evento se llevará a cabo el viernes 04 de septiembre a las 19 hs.

Será una actividad exclusiva para la comunidad ditelliana.


¡Hacé click en el enlace para inscribirte!

 

Sobre el autor


Ignacio "Zipi" González


Estudiante de Ciencias Sociales. Art nerd.

Crítica cultural. Me crié a base de Ciencia Ficción y chipá. Bostero línea Juan Román Riquelme. Tengo cosas para decir, por eso escribo.


Contacto:

@writtenbyzipi


260 visualizaciones0 comentarios

Entradas Recientes

Ver todo

INVITANOS UN CAFECITO

¡Aportá $50 y ayudanos a recaudar fondos para nuestros proyectos!

bottom of page