La primera duda es si lo que se anticipa es exactamente igual a lo que hacen los seres humanos, ¿o será que para “aprender” o “pensar” necesitaremos conceptos distintos a lo que nosotros hacemos? El punto es que, aunque nos cueste mirar a las máquinas y algoritmos en esa forma, no hay duda de que son un producto tan humano como una obra de arte o una novela, ya que fueron creadas por nosotros.
El lenguaje crea realidades y hasta la biblia nos dice que primero estaba el verbo. Entonces, ¿debiéramos seguir trasladando a la IA características y funciones humanas, usando palabras y definiciones aplicables solo a nosotros? ¿Qué obliga a utilizar el verbo “pensar” o la palabra “inteligencia”?
A veces no se alcanza a teorizar y la historia tiene variadas instancias de revoluciones tecnológicas en que todo cambia antes que nos demos cuenta. Incluso ocurrió con la primera revolución industrial en Gran Bretaña en el s.18.
Leo a alguien que respeto mucho como Yuval Noah Harari que nos dice en The Economist que la IA puede ser una especie de arma de destrucción masiva para nuestro mundo mental y social, en el sentido que las nuevas herramientas amenazarían nada menos que la supervivencia de la civilización humana, partiendo por la capacidad de generar lenguaje, sean palabras, sonidos o imágenes, toda vez que el lenguaje es la materia de la que está hecha toda la cultura humana.
He aprendido de libros como Sapiens o Homo Deus, pero poco después de la aparición de “21 Lecciones para el Siglo XXI”- a diferencia de los otros- el libro perdió protagonismo, ya que allí no figuraba la pandemia del CV-19, aunque no se puede criticar a Harari por ello, ya que aparentemente nadie pudo anticipar lo mal preparado que se estaba y la forma que sería afectado todo el mundo.
Si menciono lo anterior es por un hecho, nos gusta anticipar el futuro, aunque sea extremadamente difícil predecirlo con toda certeza. Sin embargo, con un poco de imaginación podemos señalar características esperables. Es lo que está ocurriendo con la IA, que está corriendo las fronteras de lo posible y de lo probable.
Aquí me detengo y regreso al tema de esta columna, como debemos prepararnos para la IA y cuan asustados o tranquilos deberemos estar, ya que, en estos mismos días, nada menos que un reconocido pionero de la IA advierte que es una amenaza existencial para la humanidad, y para
poder dedicarse a alertar de los riesgos, Geoffrey Hinton renuncia a Google para poder disponer del tiempo para hacerlo.
Y no es el único, ya que su CEO Sandor Pichai habla de los peligros y que el impacto será más intenso que el de la electricidad o el fuego. Es decir, hay a la vez optimismo y preocupación, y como otras veces, habrá ganadores y perdedores en países y empresas.
¿Qué hacer y cómo actuar?
En carta,
Elon Musk, Harari y cientos de expertos piden “pausar” por seis meses la “carrera” de la IA. Proponen establecer una moratoria hasta que se establezcan sistemas de
seguridad con nuevas autoridades regulatorias. ¿Se puede hacer o ya es tarde? ¿Por lo demás, quien sería esa autoridad y quien tiene el poder para nombrarla? Aún más difícil, ¿quién logra que el mundo entero obedezca? El realismo dice que es demasiado lo que está en juego, sobre todo, las recompensas para los exitosos o los primeros, tal como ocurrió con la computación.
Por cierto, habrá un reacomodo profundo en los trabajos del futuro, con muchas ocupaciones que aparecerán y otras que desaparecerán, lo que no me asusta, ya que ha ocurrido muchas veces.
Nuevos trabajos y profesiones emergen siempre, y sin ir más lejos, basta comparar el listado de ocupaciones del Departamento del
Trabajo estadounidense, donde en la década del 80, en comparación con la anterior, se agregaron más de dos mil nombres mientras que sobre tres mil perdieron importancia.
No nos asustemos tanto por el plano laboral, toda vez que
ciencia y tecnología no son neutrales, por lo que siempre tendrán impacto en la sociedad.
Quienes me dan miedo son gobiernos y empresas, y he extendido mi preocupación también a las sociedades democráticas y desarrolladas, no solo aquellas dictatoriales, toda vez que antes de la pandemia no me hubiera preocupado al mismo nivel, pero después de la restricción de libertades que trajo consigo, me preocupo más.
Basta al respecto observar al Foro de Davos donde se propuso el 2022 que la IA limite las “opiniones odiosas”, ya que podría detectar lo que se considera peligroso en algún momento, antes que esas opiniones lleguen a las plataformas.
A eso, otros le suman ideas para una especie de pasaporte digital, que en su versión
china podría seguir la huella de cuanta conformidad tiene cada individuo con las normas para así ser recompensado o disciplinado, o en la versión occidental del extremismo climático, para seguir su huella de carbono y que los gobiernos actúen sobre los hábitos de consumo para la “salvación” planetaria.
Después de la pandemia, no solo me preocupan las dictaduras y autoritarismos, sino también gobiernos democráticos, además de grandes empresas.
En Rusia tienen temor a los oligarcas. En USA a las grandes tecnológicas, y no solo por la colaboración que le han prestado por razones comerciales al
gobierno chino. En USA, también preocupa a un sector su alianza con el FBI, denunciada por los nuevos dueños de Twitter como también que hayan censurado a personas que les parecían que esparcían
noticias falsas, no tanto por Trump, sino por tratarse nada menos que del presidente de USA, existiendo aquí un antes y un después.
Me da miedo el poder económico, cuando se utiliza para influir y condicionar el proceso democrático. Postulo que no debemos repetir lo que ocurrió con el optimismo exagerado de los 90s, incluyendo legislación que les permite no ser responsables de lo que aparece o se difunde en sus plataformas, regalía que no tiene la prensa tradicional o la TV.
Se necesita vigilancia y regulación. Yo no le tengo miedo a la IA, le tengo miedo a lo que gobiernos y empresas gigantescas pueden hacer con ella. También me preocupa la programación, ya que allí se pueden introducir sesgos, desde los dueños a los programadores.
Hay que desterrar la ingenuidad, y no solo para dejar a la IA fuera de todo lo relacionado con la bomba atómica.
La pregunta es ¿qué se puede hacer?
De partida, hay que hacerlo a nivel mundial, y lo primero a anotar es que para estos efectos la
ONU no funciona bien como tampoco lo hizo en la pandemia.
Un solo país, individualmente tampoco, incluyendo a
Estados Unidos, que hoy no tiene el super poder del que dispuso después de la caída de la ex URSS. Tampoco tiene la voluntad.
¿Que se necesitaría? Aunque suene raro decirlo después de
Ucrania, un acercamiento de las potencias. Si se hizo durante la Guerra Fría, se puede hacer ahora, es decir,
- 1.-la firma de un tratado global, que construya sobre la experiencia que el mundo tiene a mano, es decir, lo que se hizo no solo con la bomba, sino en general con la energía nuclear, ya que Hiroshima dio origen a un temor aun superior al que hoy existe en relación con la IA. Podemos decir, que no se pudo evitar toda proliferación, pero ha funcionado en forma razonable.
Además, no se dispone de otra experiencia similar.
- 2.- En segundo lugar, a nivel nacional los países deberán incorporar en sus respectivas constituciones la protección de lo que viene, es decir, algoritmos y estrategias de protección de los derechos elementales, que nos proteja de la manipulación de los procesos que tienen lugar en nuestro cerebro.
¿Qué nos falta? La presencia de la ética, no una cualquiera, sino una de principios más que de valores, ya que estos últimos se modifican con los cambios sociales, mientras que los principios son pocos e inmutables, es decir, se deberá actuar con el ejemplo ético de las Tres
Leyes de la Robótica de Isaac Asimov y sus directrices de cómo estos deberán comportarse con los humanos.
Por último, aunque exista un marco regulatorio para protegernos de quienes quieran jugar a ser dioses, a cada persona le aumentan las probabilidades que en algún momento deberá decidir si le cree o no a un dispositivo no humano que le va a decir que está pensando. -infobae
Leave A Comment