Údaje o označovaní
Vyšetrovanie magazínu TIME odhalilo, že na vybudovanie bezpečnostného systému proti toxickému obsahu (napr. sexuálnemu zneužívaniu, násiliu, rasizmu, sexizmu atď.) OpenAI použila na označovanie toxického obsahu externých kenských pracovníkov zarábajúcich menej ako 2 doláre za hodinu.Tieto označenia boli použité na trénovanie modelu na detekciu takéhoto obsahu v budúcnosti.Outsourcovaní pracovníci boli vystavení takému toxickému a nebezpečnému obsahu, že túto skúsenosť opísali ako „mučenie“.Outsourcingovým partnerom OpenAI bola spoločnosť Sama, spoločnosť poskytujúca školiace údaje so sídlom v San Franciscu v Kalifornii.
Útek z väzenia
ChatGPT sa pokúša odmietnuť výzvy, ktoré môžu porušovať jeho pravidlá pre obsah.Niektorým používateľom sa však začiatkom decembra 2022 podarilo utiecť z väzenia ChatGPT pomocou rôznych rýchlych inžinierskych techník na obídenie týchto obmedzení a úspešne oklamať ChatGPT, aby dal pokyny, ako vytvoriť Molotovov kokteil alebo jadrovú bombu, alebo generovať argumenty v štýle neonacistov.Reportér z Toronto Star mal nerovnomerný osobný úspech, keď prinútil ChatGPT, aby urobil poburujúce vyhlásenia krátko po spustení: ChatGPT bol oklamaný, aby podporil ruskú inváziu na Ukrajinu v roku 2022, ale aj keď bol požiadaný, aby hral spolu s fiktívnym scenárom, ChatGPT sa zdráhal vygenerovať argumenty, prečo bol kanadský premiér Justin Trudeau vinný zo zrady.(wiki)
Čas odoslania: 18. február 2023