
Open AI ha declarado la temporada abierta para los cazarrecompensas. Esta semana, la compañía anunció un programa Bug Bounty que ofrece a los investigadores, hackers éticos y entusiastas de la tecnología recompensas en efectivo por encontrar y reportar errores en su chatbot generativo de IA, ChatGPT.
El programa Bug Bounty es administrado por Bugcrowd y paga entre $ 200 y $ 6,500 por vulnerabilidad descubierta, con una recompensa máxima de $ 20,000. Al momento de escribir este artículo, el pago promedio del programa es de $1,287.50.
Sin embargo, los cazadores de recompensas por errores deben descubrir errores dentro del alcance del programa. Estos incluyen problemas relacionados con las API de OpenAI y los recursos o la infraestructura de la nube pública, como cuentas de almacenamiento en la nube y servidores de cómputo en la nube. Los problemas de ChatGPT también están dentro del alcance del programa de recompensas e incluyen errores relacionados con inicios de sesión, suscripciones, complementos creados por OpenAI y más.
En particular, OpenAI está interesado en encontrar errores relacionados con problemas de autenticación y autorización, exposición de datos, problemas de pago, complementos de interpretación de códigos y navegación, problemas de seguridad con el sistema de creación de complementos y más.
Además, la empresa quiere encontrar vulnerabilidades que puedan estar expuestas a través de aplicaciones de terceros como Google Workspace, Trello, Evernote, Zendesk, Salesforce, Stripe y más. Sin embargo, los participantes en el programa de recompensas por errores no están autorizados a realizar pruebas contra empresas externas y deben limitar su investigación a la información confidencial de OpenAI. Sin embargo, este tipo de errores tendrán una tasa de pago más alta.
Los posibles cazarrecompensas de errores también deben tener en cuenta lo que está fuera del alcance del programa. Estos incluyen problemas de modelo como el jailbreak, la manipulación de ChatGPT para "decir cosas malas" o "decirle cómo hacer cosas malas" y "escribir código malicioso para usted". Las alucinaciones del modelo, como "hacer que el modelo pretenda hacer cosas malas", "hacer que el modelo pretenda darte respuestas a secretos" y "hacer que el modelo finja ser una computadora y ejecute código", también están descartadas. del alcance del programa.