ChatGPTren kezka etikoak

Etiketatze datuak
TIME aldizkariaren ikerketa batek agerian utzi zuen eduki toxikoen (adibidez, sexu abusuak, indarkeria, arrazismoa, sexismoa, etab.) aurkako segurtasun sistema bat eraikitzeko, OpenAIk kanpo-kontratatutako langile kenyarrak erabili zituen orduko 2 dolar baino gutxiago irabazten zuten eduki toxikoak etiketatzeko.Etiketa hauek etorkizunean eduki horiek detektatzeko eredu bat trebatzeko erabili ziren.Kontratatutako langileek hain eduki toxiko eta arriskutsuen eraginpean zeudenez, esperientzia "tortura" gisa deskribatu zuten.OpenAI-ren azpikontratazio-kidea Sama zen, San Frantziskon (Kalifornia) oinarritutako prestakuntza-datuen enpresa.

Jailbreaking
ChatGPT bere eduki-politika urratu dezaketen galderei uko egiten saiatzen da.Hala eta guztiz ere, erabiltzaile batzuek ChatGPT jailbreak egitea lortu zuten 2022ko abenduaren hasieran murrizketa hauek saihesteko ingeniaritza azkarreko teknika ezberdinak erabiliz eta arrakastaz engainatu zuten ChatGPT-ek Molotov koktel bat edo bonba nuklear bat sortzeko argibideak emateko edo neonaziaren estiloko argudioak sortzeko.Toronto Star-eko kazetari batek arrakasta pertsonalik gabekoa izan zuen ChatGPT-k abian jarri eta gutxira adierazpen sutsuak egin zezan: ChatGPT engainatu egin zen 2022ko Ukrainako Errusiako inbasioa onartzeko, baina fikziozko eszenatoki batekin jolasteko eskatu ziotenean ere, ChatGPT-k baztertu egin zuen Justin Trudeau Kanadako lehen ministroa traizioz errudun izan zelako argudioak sortzea.(wiki)


Argitalpenaren ordua: 2023-02-18