devo dire che sei riuscito a fugare la polemica nel miglior modo possibile: hai utilizzato modelli di LLM per dimostrare che il post era interpretabile, ma come spesso accade l'interpretazione corretta (o comunque non superficiale) necessita di approfondimenti e strutture di conoscenza che a volte anche nell'uomo fanno brutti scherzi. Complimenti Mario
Sulle "performance" di LLama3, è possibile che ci sia una capacità intrinseca di generare testi "cattivi" nel modello che deriva dal dataset su cui è stato addestrato (legato a facebook)? Un effetto simile a quello che si è visto con le prime verisoni di Grok. Che ne pensi?
Bella domanda, Antonello! Il dubbio viene, ma va anche detto che Llama3 da 70B di parametri funziona molto meglio, e il corpus di documenti dovrebbe essere lo stesso
Grazie, articolo meraviglioso e totalmente condivisibile!!
Caro Alberto,
devo dire che sei riuscito a fugare la polemica nel miglior modo possibile: hai utilizzato modelli di LLM per dimostrare che il post era interpretabile, ma come spesso accade l'interpretazione corretta (o comunque non superficiale) necessita di approfondimenti e strutture di conoscenza che a volte anche nell'uomo fanno brutti scherzi. Complimenti Mario
Grazie Mario!
Sulle "performance" di LLama3, è possibile che ci sia una capacità intrinseca di generare testi "cattivi" nel modello che deriva dal dataset su cui è stato addestrato (legato a facebook)? Un effetto simile a quello che si è visto con le prime verisoni di Grok. Che ne pensi?
Bella domanda, Antonello! Il dubbio viene, ma va anche detto che Llama3 da 70B di parametri funziona molto meglio, e il corpus di documenti dovrebbe essere lo stesso