this post was submitted on 04 Jan 2026
12 points (100.0% liked)

Teknologi

400 readers
5 users here now

For debat og nyheder omkring teknologi af alle former.

founded 2 years ago
MODERATORS
 

Så jeg sidder her og drømmer om at rejse, som mange af os nok gør i det her vejr. Efter at have lavet en god lang liste af lande, tænkte jeg at ChatGPT da lige kunne lave et billede hvor landene er farvet ind.

Det er så endnu en af de ting ChatGPT faktisk virkelig ikke er særligt god til. Ikke nok med at den har farvet en masse lande jeg ikke har bedt om, den har også tilføjet nogle meget store landområder på kortet. På overfladen ligner det rigtigt nok et verdenskort, men man skal ikke kigge længe, eller zoome specielt meget ind, før det begynder at blive noget alvorligt rod.

Jeg synes det er et ret godt visuelt eksempel på hvor unøjagtig ChatGPT faktisk er.

Edit. Her er et link til "samtalen" hvis nogen skulle finde det interessant: https://chatgpt.com/share/6959cb1e-2d20-800a-8a94-bee45a441ff0

you are viewing a single comment's thread
view the rest of the comments
[–] MBech@feddit.dk 2 points 6 days ago (1 children)

Jeg synes at det der gør den super upræcis er ikke nødvendigvis at pixels ikke er helt perfekt. Det vil jeg sige næsten er forventeligt. Jeg synes det der er helt galt er at den opfinder nye øer, og at den ikke har den fjerneste anelse om hvor landegrænserne er, eller hvilke lande der er hvad. Det interessante er for mig, at det er en god visualisering af hvor meget ChatGPT simpelthen bare finder på, og hvis den er i tvivl, så smider den bare noget afsted. Selv når det bliver påpeget at der er en fejl, kommer den bare med et nyt skud i tågen.

[–] SorteKanin@feddit.dk 2 points 6 days ago

helt galt er at den opfinder nye øer, og at den ikke har den fjerneste anelse om hvor landegrænserne er

Men det kan man da heller overhoved ikke forvente at den kan finde ud af, når den kun er trænet til at tilnærme sig billeder, men ikke rent faktisk har nogenviden om lande eller geografi eller noget som helst.

Altså min pointe er bare at det ikke burde være overraskende på nogen måde at den ikke kan finde ud af det.