Para ayudar a Aleteia a continuar su misión, haga una donación. De este modo, el futuro de Aleteia será también el suyo.
Mo Gawdat, ex funcionario de Google, dirigió un departamento de Inteligencia Artificial (IA) de la empresa y declaró en una entrevista al diario británico The Times que está “asustado” con lo que el gigante tecnológico estadounidense está creando en este ámbito.
El científico dejó Google en 2017, después de haber perdido un hijo de 21 años durante una cirugía. El emprendedor digital escribió el libro “La Fórmula de la Felicidad“, y cuenta su experiencia de lidiar con la pérdida del hijo.
Gawdat reveló, en la entrevista, que Google desarrolló un sistema para que los brazos robóticos encontraran y agarraran pequeñas esferas. Durante el desarrollo del proyecto, uno de los brazos robóticos agarró una de ellas y, enseguida, también la aseguró.
Gawdat no dejó claro si esta última acción estaba prevista en la capacidad de aprendizaje artificial del brazo robótico o si de hecho fue ejecutada "autónomamente" por el mecanismo.
En cualquier caso, la descripción general del comando era "identificar, localizar y agarrar" la esfera, teóricamente poniendo fin así a la ejecución en lugar de también asegurarla.
Hablamos, en definitiva, de un robot que parece haber ido más allá de lo que estaba programado para hacer, porque habría "aprendido", a través de códigos de inteligencia artificial, a ejecutar "por cuenta propia" un siguiente paso que aún no estaba incluido en su "tarea" actual.
A este respecto, Gawdar afirmó a The Times:
Él afirma que la tecnología está cada vez más cerca de crear una "inteligencia artificial general", capaz de incorporar a su código la capacidad de tomar decisiones autónomas y, por lo tanto, convertirse en una amenaza para la humanidad.
El cine de ciencia ficción ha explorado en diversas ocasiones esa hipótesis que entonces parecía remota. Una de las obras más populares en que las máquinas empiezan a actuar de manera autónoma, volviéndose un enorme problema para la humanidad, es la saga "The Terminator".
Optando por otra perspectiva, el también emblemático “A.I. - Inteligencia artificial ”, de Steven Spielberg, muestra una especie de “humanización” de un niño robot que aprende a desarrollar emociones.
Para Mo Gawdat, el lado peligroso de la ciencia ficción es que puede estar a punto de dejar de ser ficción:
Mo Gawdat no es el único en emitir una alerta sobre los aspectos de la IA que requieren más control.
Uno de los nombres más inflyuentes de la actualidad en alta tecnología, el mega empresario Elon Musk, declaró que es necesario implementar restricciones para no correr el riesgo de ser dominados por algún tipo de Inteligencia Artificial "rebelde".
Musk probablemente tiene una buena noción de lo que está diciendo, ya que es fundador de marcos históricos en la trayectoria de la evolución tecnológica de la humanidad: SpaceX, Tesla, The Boring Company y Neuralink están entre las compañías que sacó del papel.
La también gigante Microsoft ha pedido recurrentemente a las autoridades gubernamentales no solo de Estados Unidos, sino de otros países, crear reglamentaciones y restricciones más rígidas a la investigación y desarrollo de la Inteligencia Artificial.
De hecho, los riesgos derivados del mal uso de esa tecnología no están solo en un futuro hipotético.
Desarrolladores independientes han implementado algoritmos predicativos que crean “deepfakes” de mujeres famosas o anónimas con grados extraordinarios de realismo.
Los “Deepfakes” son videos con un alto grado de realismo y que, por lo tanto, parecen auténticos, pero son completamente falsos: muchos de ellos montan escenas de personas en situaciones que involucran pornografía o incluso crímenes, causándoles serios problemas hasta que logran desmentirlos.
Un código de ese tipo que salga de control y produzca “deepfakes” por cuenta propia puede generar caos.
Otro caso de tecnología que ha "tomado decisiones" equivocadas parece haber sido el del software Rekognition, creado por Amazon para el reconocimiento facial. Autoridades policiales norteamericanas lo testaron e informaron que la tecnología demostraba "sesgos racistas", cometiendo graves errores en la identificación de personas negras.
Por otro lado, hay también éxitos importantes, como los sistemas ya en uso por biólogos para prever enfermedades de origen animal capaces de infectar a los humanos, con el objetivo de avanzar en la investigación de tratamientos.
El hecho es que hay en verdad muchas lagunas e incógnitas en la legislación sobre Inteligencia Artificial y este escenario demanda atención por parte de la sociedad civil y sus representantes en el poder legislativo.
Así como ocurre en otras áreas complejas, como la genética y la ecología, el desafío es crear leyes que, al mismo tiempo, no obstaculicen el desarrollo de la ciencia y la economía, ni sean permisivas hasta el punto de no poner límites.