Written by: on 26/12/2021 @ 12:53

Hemos oído mucho acerca de GPT-3, OpenAI y sus modelos entrenados para implementar tu propia AI de una forma rápida y pre-entrenada. Los resultados de sus demos son fascinantes, pero …. ¿son realmente así? ¿o están «preparados»?

Pues planteando esa misma duda, he decidido hacer una implementacion para integrar tu usuario de Telegram con dicha AI y dockerizarlo, para que configurando tus keys desde el docker-compose.yml puedas arracar facilmente el bot, y que empieze a contestar esta inteligencia por ti.

Por seguridad, he optado por que puedas filtrarlo a un solo grupo, asi evitamos que respondas en varias decenas de canales a la vez sin control.

Puedes cambiarle la aptitud en tiempo real con un comando sencillo. Ejemplo:

/profile The assistant is funny and happy

Los resultados obtenidos en primera instancia han sido sorprendentes, como por ejemplo que las respuestas son mas coherentes si esta enfadado.

Y sin duda lo mas preocupante fue al lanzar dos AI cabreadas una contra la otra, llegando a insultos racistas, amenazas de muerte, y demás improperios no aptos para lectores sensibles. ¿Como estamos entrenado estos modelos? ¿Debemos dejarles libertad y copiar lo peor de la humanidad? ¿o seleccionar ciertos orígenes para intentar buscar modelos educados?

Catogories: AI, Python, Telegram

Leave a Reply