astatosta

joined 1 year ago
 

L’intelligenza artificiale trasforma la scuola: personalizzazione dell’apprendimento e nuovi ruoli per docenti e studenti. Il sistema educativo come lo conosciamo sta per cambiare.

https://cislscuolact.it/2025/12/22/ai-scuola-addio-compiti-casa/

 

L'analisi della cronologia, dei metadati e delle immagini successive mostra che le accuse sul video si basano su confronti fuorvianti e infondati

https://www.open.online/2025/12/22/teorie-infondate-video-zelensky-kupiansk-perche-non-reggono-fc/

 

Quante volte ci è capitato di vedere falsi trailer su YouTube davvero realistici? Sequel di opere attesissime o di film epocali e molto amati. Eppure, al di là dell’aspetto incredibilmente autentico, il più delle volte si nascondono video che di vero hanno ben poco: sono trailer realizzati con l’intelligenza artificiale. YouTube, dopo mesi di sanzioni e avvertenze, ha deciso di intervenire e nei giorni scorsi ha chiuso due dei canali più seguiti e noti, ovvero Screen Culture e KH Studio che insieme superavano i 2 milioni di iscritti e un miliardo di visualizzazioni.

https://www.wired.it/article/youtube-chiude-canali-ai-falsi-trailer/

 

Chi sono stati i protagonisti della scienza nel 2025? Come tradizione, ce lo dice Nature, con il suo decalogo di personalità che hanno contribuito alle conquiste scientifiche più significative dell’anno. Parliamo di ricercatori che hanno esplorato nuove frontiere, aperto le porte a nuove terapie per malattie rare e gravissime, difeso la salute pubblica e l’integrità della ricerca scientifica. E che per questo, sono entrati di diritto tra le 10 persone che hanno segnato la scienza nel 2025 secondo Nature.

https://www.wired.it/article/le-10-persone-che-hanno-segnato-la-scienza-nel-2025-secondo-nature/

 

A12 o G15. LLM generato senza revisione umana Ciò si applica a qualsiasi articolo che presenti uno o più dei seguenti segni che indicano che l'articolo avrebbe potuto plausibilmente essere generato solo da Large Language Models (LLM) [ 1 ] e sarebbe stato rimosso da qualsiasi ragionevole revisione umana : [ 2 ]

  • Comunicazione destinata all'utente : può includere comunicazioni collaborative (ad esempio, "Ecco il tuo articolo di Wikipedia su..."), esclusioni di responsabilità relative al limite di conoscenza (ad esempio, "Fino al mio ultimo aggiornamento di formazione..."), autoinserimento (ad esempio, "come un modello linguistico di grandi dimensioni") e modelli frasali (ad esempio, "Smith è nato il [Data di nascita]").
  • Riferimenti inesistenti e non plausibili : possono includere link esterni non funzionanti all'arrivo , ISBN con checksum non validi e DOI non risolvibili . Poiché gli esseri umani possono commettere errori di battitura e i link possono essere soggetti a link rot , un singolo esempio non dovrebbe essere considerato definitivo. I redattori dovrebbero utilizzare metodi aggiuntivi per verificare se un riferimento è effettivamente inesistente.
  • Citazioni senza senso : possono includere citazioni di temporalità errata (ad esempio, una fonte del 2020 citata per un evento del 2022), DOI che rimandano a contenuti completamente estranei (ad esempio, un articolo su una specie di coleottero citato per un articolo di informatica) e citazioni che attribuiscono l'autore o la pubblicazione sbagliati.

Oltre ai segnali evidenti sopra elencati, esistono altri segnali più soggettivi di scrittura LLM che potrebbero plausibilmente derivare da errori umani o da una scarsa familiarità con le politiche e le linee guida di Wikipedia . Sebbene questi indicatori possano essere utilizzati insieme agli indicatori più evidenti sopra elencati, non dovrebbero, da soli, costituire l'unica base per l'applicazione di questo criterio.