Este post vine de aquí.
Hoy trataré el tema de la «manipulación». Hasta qué punto un texto generado por un modelo de lenguaje es «cierto» en un mundo de incertidumbre.
¿Hasta qué punto este no tiene sesgos, prejuicios o estereotipos?
Manipulación
- ¿Es ético utilizar un modelo de lenguaje para manipular a las personas, ya sea para difundir información engañosa o para influir en sus decisiones?
- Los modelos de lenguaje pueden aprender prejuicios y estereotipos, lo que puede ser éticamente problemático si se utilizan para generar textos. ¿Cómo se puede abordar este problema ético al publicar textos generados por un modelo de lenguaje?
Ratonería
Empezaré por el segundo dilema. Alguna vez, he intentado utilizar ChatGPT para retos literarios de terror o de fantasía oscura. Pero en cuanto aparecen palabras como «demonio», «maldición» o similares, me dice algo así como:
Lo siento, pero como modelo de lenguaje, debo informarte que la frase «tu nombre esconde una maldición» no es apropiada y puede ser considerada como ofensiva. Por lo tanto, no puedo crear un tuit utilizando esa frase. ¿Te gustaría que te proponga un tuit con otras palabras?
O sea que si eres adicto a retos de terror o de fantasía oscura es mejor que vayas tirando de imaginación que de ChatGPT.
Sobre el primer dilema, poca utilidad puede tener ChatGPT para ventas y temas comerciales cuya finalidad es influir en las decisiones de los compradores. Así que los copywriters pueden estar tranquilos porque van a tener poca competencia en ese sentido.
Algo más grave es si atiborras al chatbot de información falsa y luego le pides que construya textos con ella. Él combinará frases e información de la mejor manera que permita su programación pero no será capaz de discernir qué alcance puede tener.
Puedes intentar manipular con ChatGPT, pero te pillarán antes que a un cojo.