Los investigadores de OpenAI trabajan en el desarrollo de una IA capaz de superar a los humanos. Un problema si este desarrollo se lleva a cabo sin control y sin ética. «En la actualidad, no tenemos ninguna solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se comporte de forma deshonesta», escribieron Jan Leike, investigador de aprendizaje automático, e Ilya Sutskever, cofundador y científico jefe de OpenAI, en una entrada del blog de la empresa. Añadieron que, aunque la probabilidad de que surja una IA superiormente inteligente puede parecer remota, algunos expertos creen que podría ocurrir en esta década.
Jan Leike e Ilya Sutskever citan el aprendizaje por refuerzo basado en la retroalimentación humana, un método ya utilizado en el GPT, como una de las técnicas actuales utilizadas para frenar la IA. Pero, argumentan, a medida que los sistemas de IA adquieren más relevancia que los humanos, ya no es posible confiar en que los humanos supervisen la tecnología. «Las técnicas actuales de alineación no lograrán la superinteligencia. Se necesitan nuevos avances científicos y técnicos», escriben.
Mitigar los excesos de una super IA
Ilya Sutskever y Jan Leike codirigirán el nuevo equipo de alineación de OpenAI. Para llevar a cabo su misión, durante los próximos cuatro años la división tendrá acceso al 20% de la capacidad de procesamiento de la empresa con el fin de desarrollar un «sistema automatizado capaz de alinear la IA con las capacidades humanas», que podrá ampliarse para supervisar la superinteligencia. Para ser éticos, los dos expertos recomiendan un enfoque en tres etapas: desarrollar un método de entrenamiento escalable, validar el modelo resultante y probar todo el conducto de alineación. «Sin duda, nuestras prioridades de investigación evolucionarán considerablemente a medida que crezca nuestra comprensión del problema y dirijamos nuestra investigación hacia áreas totalmente nuevas», afirman, y añaden que tienen previsto ofrecer más detalles sobre la hoja de ruta de la división.
No es la primera vez que OpenAI reconoce públicamente la necesidad de mitigar los riesgos que plantea la IA no regulada. En mayo, en una carta abierta, el consejero delegado de la empresa, Sam Altman, argumentó que el control de la tecnología debería ser una prioridad mundial de primer orden, ya que la evolución de la IA podría conducir a una forma de extinción de la humanidad. «Este riesgo de extinción por la IA debería ser una prioridad mundial, del mismo modo que otros riesgos sociales como las pandemias y la guerra nuclear», se lee en la carta. En una sección específica del sitio web de OpenAI, el público puede acceder a documentos relacionados con lo que la empresa denomina el desarrollo de una «IA segura y responsable», así como a una carta en la que se describen los principios a los que se adhiere para llevar a cabo su misión. Sin embargo, estos principios se refieren esencialmente al concepto de Inteligencia Artificial General (AGI), es decir, sistemas altamente autónomos que superen a los humanos en la mayoría de las tareas económicamente útiles. «Intentaremos construir AGIs que sean seguras y beneficiosas desde el principio, pero también consideraremos nuestra misión cumplida si nuestro trabajo ayuda a otros a lograr este resultado», reza la carta publicada en 2018.
Fuente WEB | Editado por CambioDigital OnLine