El Center for AI and Digital Policy (CAIDP), una destacada organización sin fines de lucro de defensa, presentó una queja ante la Comisión Federal de Comercio (FTC), alegando violaciones de las regulaciones de la FTC sobre engaño e injusticia por parte del último modelo de lenguaje de OpenAI, GPT-4. Este desarrollo sigue a una carta abierta reciente firmada por líderes de la industria de la IA, incluido Elon Musk, que buscan una interrupción del entrenamiento de seis meses en modelos más potentes que GPT-4.
La queja de CAIDP pide a la FTC que inicie una investigación sobre OpenAI y determine si el lanzamiento comercial de GPT-4 contraviene la Sección 5 de la Ley de la FTC. Esta sección en particular contiene pautas para la IA y abarca las normas emergentes respaldadas por el gobierno de los Estados Unidos para la gobernanza de la IA.
Según la denuncia, GPT-4 plantea múltiples amenazas, entre ellas ser parcial, engañosa y potencialmente dañina para la privacidad y la seguridad pública. La organización sin fines de lucro también afirma que GPT-4 no se ha sometido a suficientes pruebas y hace afirmaciones sin fundamento. La queja de CAIDP cita los propios informes anteriores de OpenAI, que reconocen los riesgos de la IA al exacerbar la desinformación y las operaciones de influencia, y plantean preocupaciones sobre la proliferación de armas tradicionales y no convencionales.
Además, CAIDP acusa a OpenAI de no realizar controles de seguridad esenciales para proteger a los niños durante la fase de prueba de GPT-4. La denuncia cita a Ursula Pachl, directora adjunta de la Organización Europea de Consumidores (BEUC), quien argumentó que las autoridades públicas deben recuperar el control sobre los algoritmos de IA si las empresas no implementan medidas correctivas.
Al citar la declaración de Pachl, CAIDP parece abogar por una regulación gubernamental estricta de la IA. Esta demanda se produce cuando los reguladores europeos ya están considerando adoptar un enfoque más riguroso y basado en reglas para la tecnología de IA. Mientras tanto, las entidades comerciales están ansiosas por capitalizar la IA generativa; por ejemplo, el chatbot de Microsoft Bing, impulsado por GPT-4, ahora genera ingresos publicitarios.
La respuesta de la FTC a esta queja tiene implicaciones significativas no solo para OpenAI, sino también para otras empresas involucradas en el desarrollo de IA, incluidas las plataformas no-code como AppMaster.io . Las herramientas No-code como AppMaster permiten a los usuarios crear aplicaciones back-end, web y móviles de nivel empresarial de una manera radicalmente más rápida y rentable. Estas herramientas permiten a los usuarios con diferentes conocimientos técnicos, desde propietarios de pequeñas empresas hasta desarrolladores de grandes organizaciones, crear soluciones de software escalables. Los proyectos van desde infraestructura backend hasta portales orientados al cliente y aplicaciones móviles nativas.
A medida que los organismos reguladores como la FTC examinan las prácticas de IA con respecto a cuestiones como la privacidad de los datos personales, las empresas como AppMaster, que priorizan el control del usuario, deben estar preparadas para adaptarse a los estándares en evolución. La plataforma de AppMaster ya ha establecido una reputación como una solución no-code de alto rendimiento, reconocida por G2 en varias categorías, incluidas las plataformas de desarrollo No-code, el desarrollo rápido de aplicaciones (RAD) y la gestión de API.