El auge de la inteligencia artificial coincide con el embrutecimiento de la educación, afirma un diputado australiano. Y eso es motivo de preocupación, ya que los analistas de riesgos sitúan la inteligencia artificial general (AGI) en lo alto de su lista de preocupaciones mundiales.
«Si te pones a pensar, no tardarás en darte cuenta de que los riesgos catastróficos y perturbadores de una IA descontrolada son reales, plausibles y fáciles de imaginar», afirmó el diputado Julian Hill en un discurso ante el Parlamento australiano, según The Epoch Times. «La AGI tiene el potencial de revolucionar nuestro mundo de formas que aún no podemos imaginar, pero si superara a la inteligencia humana, podría causar daños significativos a la humanidad si sus objetivos y motivaciones no están alineados con los nuestros».
A medida que aumentan las advertencias sobre las capacidades de la IA, la principal preocupación es la falta de control que los humanos podrían ejercer sobre la AGI, especialmente si un «actor malévolo puede aprovecharla con fines de destrucción masiva», afirma Hill.
Hill afirma que los ejércitos ya están buscando la AGI como herramienta bélica. «Un adversario con AGI podría conquistar Australia o desencadenar la destrucción de la sociedad sin verse limitado por las normas acordadas a nivel mundial», afirma.
Para subrayar su opinión sobre el creciente poder de la IA, Hill recurrió a ChatGPT para escribir parte de su discurso sobre cómo la IA estaba limitando las habilidades de pensamiento crítico en la educación, a medida que más estudiantes recurren a algoritmos para hacer el trabajo de clase.
Con el continuo, y meteórico, auge de la inteligencia artificial, lo inesperado entra a formar parte de la ecuación. El control de la tecnología puede proteger a los seres humanos (y la inteligencia humana) y conducir a cambios transformadores, afirma Hill, pero su proliferación desenfrenada podría cosechar diversas consecuencias imprevistas.
«El mensaje clave que quiero transmitir», dice sobre el control de la AGI, «es que tenemos que empezar ahora». La humanidad puede depender de ello.
Fte. Popular Mechanics