La domanda che mi pongo è se tutto ciò non andrà a massacrare anche possibilità d i uso legittimo di AI dedicate a compiti specifici. Penso a una compagnia di Taxi autonomi che usa la AI non solo per condurre i veicoli, ma anche per dislocarli in città nei vari orari ecc. A un'azienda farmaceutica che usa la AI per fare ricerca ecc.
Informatica (Italy e non Italy 😁)
Ecco finalmente la comunità italiana Lemmy dedicata all'informatica!
Questo è il luogo in cui condividere post sul mondo dell'informatica: notizie su hardware e software, cybersecurity, cyberwarfare, hacking, nuovi prodotti, data breach!
Ricordiamo che esistono anche alcune comunità che si occupano di argomenti più specifici, quali:
- Le Alternative, dedicata alle alternative open source ai prodotti più diffusi
- Etica Digitale, dedicata alle implicazioni etiche della tecnologia
- Pirati Europei, dedicata al mondo dei pirati italiani ed europei
- Che succede nel Fediverso, dedicata alle notizie sul fediverso
- Devol, con le notizie sulle istanze del fediverso e i servizi di decentralizzazione del collettivo Devol
- Lavoratori Tech, dedicata al tema del lavoro tecnologico
- Videogiochi, dedicata al gaming
- Retrogaming, per i videogiochi vintage
- GNU/Linux Italia, dedicata nello specifico al mondo del pinguino
Regole della comunità:
🏳️🌈 chiediamo educazione e rispetto per gli altri
🎃 anche se ci chiamiamo "Informatica" non banniamo gli utenti a caso 😁
🚫 trolling, shitposting e molestie sono vietati
💲 è vietato superare il confine che separa l'informazione dalla pubblicità
🔊 evitiamo il clickbait e il sensazionalismo
📖 per il resto valgono le regole dell'istanza al link https://feddit.it/post/6
La risposta è facile: no.
Chi realizza sistemi per usi seriamente pensati li addestra con dati selezionati: se i dati di addestramento sono filtrati a monte, il problema dell'avvelenamento non si pone.
Gli LLM a cui si riferisce l'articolo sono quelli che rastrellano indiscriminatamente la rete, LLM che sono tutto fuorchè intelligenti.
E uso di proposito LLM al posto della sigla di due lettere per rendere evidente che non sono intelligemti: se lo fossero, saprebbero scartare le informazioni sbagliate...
@pgo_lemmy Giusta osservazione, effettivamente se non sanno neanche scartare informazioni sballate rispetto a informazioni valide.....
@andre123 @informapirata @informatica A questi avvelenatori augurerei di perdere la vista e trovarsi per strada con lo smartphone in mano a guidarli. Un amico mio si è trovato coi meta rayban che lo hanno orientato da una parte, invece per evitare l'ostacolo doveva andare dall'altra. E lui su youtube lo dice chiaro: non fidatevi totalmente di queste tecnologie.
E sì, anch'io appoggio la scelta di chiamarli modelli linguistici o, al massimo, "generatori automatici basati su modelli linguistici di grandi dimensioni" e tuto el resto va in mona [cit]
La fiat/audii/mercedes produce macchine con le sospensioni fallate e chi ne subisce le conseguenze si lamenta dei dossi di rallentamento che proteggono i pedoni dai guidatori incoscienti.
Empatizzo con chi patisce i difetti (noti e ignorati) degli LLM, ma la colpa non è dei dossi e toglierli non è la soluzione.
@pgo_lemmy "toglierli non è la soluzione" a qualsiasi cosa. Basta che guardi la storia della verifica età, gli smartphone a scuola, l'educazione sessuale e tutto il resto. Comprese le droghe. Senza conoscenza, e senza alternative, il problema viene solo rimandato
@andre123 qui però stiamo parlando soprattutto di LLM e altri modelli "content creator", non di sistemi di intelligenza artificiale tout court, come quelli di guida autonoma, sistmi di simulazione, analisi testuale, etc