this post was submitted on 09 Jan 2026
1 points (100.0% liked)

Informatica (Italy e non Italy 😁)

1669 readers
5 users here now

Ecco finalmente la comunità italiana Lemmy dedicata all'informatica!

Questo è il luogo in cui condividere post sul mondo dell'informatica: notizie su hardware e software, cybersecurity, cyberwarfare, hacking, nuovi prodotti, data breach!

Ricordiamo che esistono anche alcune comunità che si occupano di argomenti più specifici, quali:

Regole della comunità:

🏳️‍🌈 chiediamo educazione e rispetto per gli altri

🎃 anche se ci chiamiamo "Informatica" non banniamo gli utenti a caso 😁

🚫 trolling, shitposting e molestie sono vietati

💲 è vietato superare il confine che separa l'informazione dalla pubblicità

🔊 evitiamo il clickbait e il sensazionalismo

📖 per il resto valgono le regole dell'istanza al link https://feddit.it/post/6

founded 2 years ago
MODERATORS
 

CINA E SINGAPORE AL LAVORO PER AVVELENARE L’INTELLIGENZA ARTIFICIALE

Per vedere altri post come questo, segui la comunità @informatica

Le soluzioni di intelligenza artificiale basano la rispettiva forza sul volume di conoscenze progressivamente accumulate.
L'articolo CINA E SINGAPORE AL LAVORO PER AVVELENARE L’INTELLIGENZA ARTIFICIALE proviene da GIANO NEWS.

top 7 comments
sorted by: hot top controversial new old
[–] andre123@snowfan.it 2 points 4 days ago (3 children)

@informapirata @informatica

La domanda che mi pongo è se tutto ciò non andrà a massacrare anche possibilità d i uso legittimo di AI dedicate a compiti specifici. Penso a una compagnia di Taxi autonomi che usa la AI non solo per condurre i veicoli, ma anche per dislocarli in città nei vari orari ecc. A un'azienda farmaceutica che usa la AI per fare ricerca ecc.

[–] pgo_lemmy@feddit.it 2 points 4 days ago (1 children)

La risposta è facile: no.

Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell'avvelenamento non si pone.

Gli LLM a cui si riferisce l'articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.

E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate...

[–] andre123@snowfan.it 1 points 4 days ago

@pgo_lemmy Giusta osservazione, effettivamente se non sanno neanche scartare informazioni sballate rispetto a informazioni valide.....

[–] elettrona@poliversity.it 1 points 4 days ago (1 children)

@andre123 @informapirata @informatica A questi avvelenatori augurerei di perdere la vista e trovarsi per strada con lo smartphone in mano a guidarli. Un amico mio si è trovato coi meta rayban che lo hanno orientato da una parte, invece per evitare l'ostacolo doveva andare dall'altra. E lui su youtube lo dice chiaro: non fidatevi totalmente di queste tecnologie.
E sì, anch'io appoggio la scelta di chiamarli modelli linguistici o, al massimo, "generatori automatici basati su modelli linguistici di grandi dimensioni" e tuto el resto va in mona [cit]

[–] pgo_lemmy@feddit.it 1 points 3 days ago* (last edited 3 days ago) (1 children)

La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.

Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.

[–] elettrona@poliversity.it 1 points 3 days ago

@pgo_lemmy "toglierli non è la soluzione" a qualsiasi cosa. Basta che guardi la storia della verifica età, gli smartphone a scuola, l'educazione sessuale e tutto il resto. Comprese le droghe. Senza conoscenza, e senza alternative, il problema viene solo rimandato

[–] informapirata@poliverso.org 1 points 4 days ago

@andre123 qui però stiamo parlando soprattutto di LLM e altri modelli "content creator", non di sistemi di intelligenza artificiale tout court, come quelli di guida autonoma, sistmi di simulazione, analisi testuale, etc