
Så jeg sidder her og drømmer om at rejse, som mange af os nok gør i det her vejr. Efter at have lavet en god lang liste af lande, tænkte jeg at ChatGPT da lige kunne lave et billede hvor landene er farvet ind.
Det er så endnu en af de ting ChatGPT faktisk virkelig ikke er særligt god til. Ikke nok med at den har farvet en masse lande jeg ikke har bedt om, den har også tilføjet nogle meget store landområder på kortet. På overfladen ligner det rigtigt nok et verdenskort, men man skal ikke kigge længe, eller zoome specielt meget ind, før det begynder at blive noget alvorligt rod.
Jeg synes det er et ret godt visuelt eksempel på hvor unøjagtig ChatGPT faktisk er.
Edit.
Her er et link til "samtalen" hvis nogen skulle finde det interessant: https://chatgpt.com/share/6959cb1e-2d20-800a-8a94-bee45a441ff0
Uanset om du bruger en anden model ændrer det nok ikke signifikant på resultatet. Billedgenerering som det virker lige nu er en proces med tilfældigheder indbygget. Det kan slet ikke producere pixel perfekte resultater som man forventer af at landkort. Det ville simpelthen kræve en helt anden fremgangsmåde (som nok en eller anden dag kommer).
Så jeg vil nærmere sige at lige præcis denne slags opgave er uegnet til billedgenerering som vi kender det i dag. Man kan vel sige at det gør ChatGPTs billedgenerering upræcis, men det er jo lidt som at sige at en hammer er hård - hele værktøjets konstruktion nødvendiggør at det er sådan.
Jeg synes at det der gør den super upræcis er ikke nødvendigvis at pixels ikke er helt perfekt. Det vil jeg sige næsten er forventeligt. Jeg synes det der er helt galt er at den opfinder nye øer, og at den ikke har den fjerneste anelse om hvor landegrænserne er, eller hvilke lande der er hvad. Det interessante er for mig, at det er en god visualisering af hvor meget ChatGPT simpelthen bare finder på, og hvis den er i tvivl, så smider den bare noget afsted. Selv når det bliver påpeget at der er en fejl, kommer den bare med et nyt skud i tågen.
Men det kan man da heller overhoved ikke forvente at den kan finde ud af, når den kun er trænet til at tilnærme sig billeder, men ikke rent faktisk har nogenviden om lande eller geografi eller noget som helst.
Altså min pointe er bare at det ikke burde være overraskende på nogen måde at den ikke kan finde ud af det.