Un botón, «Kill Switch», para interrumpir un sistema de inteligencia artificial en caso de necesidad, al estilo de los desarrollados para detener el lanzamiento no autorizado de armas nucleares.
Esta es la sugerente propuesta que se desprende de un documento elaborado por varias instituciones académicas, entre ellas el Centro Leverhulme de la Universidad de Cambridge, el Instituto de Internet de Oxford y la Universidad de Georgetown, junto con algunos investigadores de ChatGpt.
El documento considera una serie de elementos rastreables de la inteligencia artificial, como el sistema informático («detectable y cuantificable»), las grandes infraestructuras que lo sustentan, los chips utilizados para entrenar modelos de IA que son producidos por un número relativamente pequeño de empresas y las limitaciones de la cadena de suministro en la producción de semiconductores.
«Estos factores proporcionan a los reguladores los medios para comprender mejor cómo y dónde se despliega la infraestructura de IA, quién puede acceder a ella y quién no, e imponer sanciones por uso indebido», argumenta el documento, que destaca varias formas en que los responsables políticos pueden regular el hardware de IA. Como, por ejemplo, un «kill switch», un botón para desactivar incluso a distancia el uso de la IA en aplicaciones malintencionadas o en caso de infracción de normas. En la línea de los candados de seguridad utilizados para las armas nucleares.
Una sugerente herramienta que, sin embargo, como observan los propios investigadores, podría ser contraproducente e impedir, si se utiliza mal o en las manos equivocadas, el desarrollo de la inteligencia artificial.
Otro punto crítico de este trabajo es la participación de investigadores de OpenAI, la empresa matriz de ChatGPT, que por un lado pide regulación pero por otro tiene que hacer negocio y produce nuevos sistemas de IA a marchas forzadas. El último es Sora, que genera videos realistas de un minuto simplemente a partir de texto, un riesgo potencial para el cine y la difusión de deepfakes.
Fuente: Web. Editado por CambioDigital OnLine