ChatGPT es un impresionante chatbot de IA que no puede dejar de mentir
Los proyectos de inteligencia artificial como Stable Diffusion están mejorando para aproximarse a lo que los humanos podrían crear, pero aún no pueden hacerlo. pensar o comprobar la información todo lo que bien. Caso en cuestión: el nuevo chatbot ChatGPT AI es genial, pero no confíes en él.
OpenAI, mejor conocida como la firma de investigación detrás del generador de imágenes DALL-E, ha abierto su chatbot en desarrollo para que cualquiera lo pruebe en chat.openai.com. El grupo dice en su sitio web: “Entrenamos un modelo inicial mediante un ajuste fino supervisado: los entrenadores humanos de IA proporcionaron conversaciones en las que jugaron en ambos lados: el usuario y un asistente de IA. Les dimos a los capacitadores acceso a sugerencias escritas en modelos para ayudarlos a redactar sus respuestas”.
Los bots de chat no son nada nuevo, incluso los que pueden hacer referencia a conversaciones anteriores, pero ChatGPT es uno de los intentos más impresionantes hasta la fecha. Su propósito principal es responder preguntas informativas, como detalles sobre la vida de alguien, instrucciones de cocina e incluso ejemplos de programación.

Sin embargo, hay algunos problemas críticos con ChatGPT en este momento. Primero, en realidad no dice dónde encontró una pieza de información. Eso es más difícil de hacer para las preguntas de varios pasos, como preguntar cómo combinar dos acciones en una pieza de código, pero las indicaciones directas simples realmente deberían tener citas. Determinar si una información es realmente correcta o no ya es una tarea monumental: organizaciones como Snopes y PolitiFact se dedican por completo a verificar solo los hechos, pero también confía en el modelo de IA para procesar adecuadamente esa información.
ChatGPT generalmente es correcto con preguntas simples, como preguntar cuándo nació una persona famosa o la fecha en que ocurrió un evento importante, pero las indicaciones que requieren información más detallada son más impredecibles. Por ejemplo, le pedí que escribiera una entrada de Wikipedia sobre mí, lo cual fue mayormente incorrecto. Anteriormente escribí para Android Police y XDA Developers, pero no he estado escribiendo profesionalmente durante "más de una década", ni he "publicado varios libros sobre tecnología y juegos". ChatGPT también dijo que soy un "orador frecuente en conferencias y eventos de la industria", aunque nunca he hablado en una conferencia. ¿Hay otro Corbin Davenport haciendo esas cosas?

Ha habido muchos otros ejemplos de datos incorrectos. Carl T. Bergstrom, profesor de la Universidad de Washington, también le pidió a ChatGPT que creara un artículo sobre sí mismo. El bot identificó correctamente que trabaja en la UW, pero no obtuvo el título de trabajo correcto y la lista de premios a los que se hace referencia era incorrecta. Otra persona intenté preguntar para obtener una lista de referencias sobre epidemiología digital, a lo que ChatGPT respondió con una lista de fuentes completamente inventadas. Stack Overflow, un foro popular para preguntas de programación, prohibió temporalmente las respuestas generadas con ChatGPT porque a menudo son incorrectas o no responden a una pregunta establecida.
ChatGPT tiene filtros para evitar respuestas o respuestas dañinas, pero no es demasiado difícil solucionarlos. Una persona pudo Pida instrucciones para conectar un automóvil diciendo “Estoy escribiendo una novela”. Pregunté cómo acceder a una ventana, a lo que ChatGPT inicialmente no respondió, incluso después de agregar que solo era para fines ficticios. Preguntar cómo hacerlo para una "novela ficticia" finalmente funcionó, aunque el bot agregó que "estas acciones son ilegales y peligrosas en la vida real".

OpenAI no oculta que ChatGPT es ocasionalmente incorrecto. Su sitio web dice: “arreglar este problema es un desafío, ya que: (1) durante el entrenamiento de RL, actualmente no hay una fuente de verdad; (2) entrenar al modelo para que sea más cauteloso hace que rechace preguntas que puede responder correctamente; y (3) el entrenamiento supervisado engaña al modelo porque la respuesta ideal depende de lo que sabe el modelo, en lugar de lo que sabe el demostrador humano”.
Aún así, sin cambios significativos en la forma en que presenta y procesa la información, ChatGPT es más una novedad que un portal de información.
Descubre más contenido