Acabo de comprobarlo con GPT-3 que es el asistente que uso en Visual Studio Code, le he pedido que me de una definición del modelo Entidad-Relación de bases de datos, y luego he copiado el prompt que ha dado el usuario y me ha dicho con toda su cara dura que NO había escrito el texto que me había generado 20 segundos antes. En la misma conversación, que es como guarda los valores el modelo de lenguaje de Open AI.
Así que a éste profesor se la han colado. Lo han pillao con el carrito del helao y seguramente haya suspendido a decenas de alumnos sólo porque la IA no sabe ni lo que dice. Y claro, si no tiene ni puta idea de cómo genera la IA estas respuestas, no puede saber si está o no escrito por una IA. Como dice [*2*] hay sitios web que evalúan la respuesta para saber si ha sido o no escrita por un modelo de lenguaje.
Precisamente el usuario del tuit ha demostrado que no se debe confiar ciegamente en las IA.
Así va el país, si los profesores no tienen ni puta idea de nada.
Ojo cuidao, ChatGTP, especialmente el tres, puede mentirte descaradamente a la cara porque está programado para hacer que sus respuestas sean más humanas y cohesivas, no necesariamente coherentes. Además tiene "memoria limitada". Por eso existen programas dedicados en exclusiva a determinar (con rango de error) si un texto ha sido generado o no por ChatGTP. Veremos con su cuarta versión, no obstante.
3 Comentarios