RE: Chat-GPT vs Google?!

avatar

You are viewing a single comment's thread:

Le AI attualmente in circolazione hanno il vizio di "rubare" il contenuto altrui, senza citarne l'origine. Sono già state intentate cause a Mindjourney e Stability AI.

La stessa Microsoft ha già qualche problema analogo con il suo Copilot su Github.

Questa è la grande sfida da superare per queste AI. D'altra parte Google con le sue ricerche indirizza traffico (nonostante non manchino le polemiche anche al riguardo, vedasi in particolare quelle con gli editori dei grandi media, ma non solo) monetizzabile agli autori. Le AI al momento, come detto, "rubano" solo.



0
0
0.000
3 comments
avatar

Si, effettivamente durante i miei test ho avuto la sensazione che chat-gpt faccia un uso simile a copilot (avevo scritto un post dove mettevo in luce che copilot prendeva per lo più da stackoverflow). Questo per Python. Poi gli ho chiesto di farmi qualcosa in pinescript, a parte che si è inventato delle funzioni che non esistevano, cosa ripetuta ad ogni correzione, il resto del codice però sembrava che se lo fosse inventato di suo.

0
0
0.000
avatar
(Edited)

In realtà queste AI fanno esattamente quel che fa un umano: copiano e riproducono. Anche un programmatore esperto usa codice altrui, come un artista o un fotografo prendono ispirazione dai lavori altrui.

Le differenze fondamentali sono due:

  1. un umano di norma quando si ispira e non copia semplicemente aggiunge il suo tocco personale, la sua interpretazione, modifica ed adatta. Anche l'AI lo fa, ma quando arriva a quel punto i risultati sono scarsissimi: molto probabilmente introduce errori che l'umano deve correggere. In sostanza si comporta come un umano di scarsissime capacità. I risultati possono sembrare strabilianti a chi non conosce le materie in questione, ma sono scarsi per chi ne conosce anche solo le basi. Certo agevolano comunque il lavoro per chi ha le capacità di correggere quando possibile (molto difficile andare a correggere un'immagine, molto più agevole andare a correggere righe di codice), comportandosi più come furbi motori di ricerca che come vere AI.

Su questo discorso occorre aggiungere due osservazioni:

a) a volte i risultati molto scarsi dipendono da un errato uso dell'AI, che non viene addestrata correttamente dall'utilizzatore.

b) queste sono solo delle AI sperimentali, che stanno da poco cominciando ad imparare; pertanto occorre tener conto di questo aspetto e vedere come progrediranno nel loro percorso di apprendimento.

  1. la cosa più grave è che appunto un umano, se corretto, non disconosce le fonti di ispirazione ed il lavoro di altri impossessandosene. Le AI invece non riconoscono le fonti e distribuiscono le loro produzioni come unicamente proprie, finendo quindi per "rubare" o "plagiare".

Alla fine per ora le AI riescono a simulare perfettamente il peggio dei comportamenti umani. Speriamo nel progresso.

EDIT: strano comportamento dello script di PeakD. Io scrivo "2) la cosa più grave ..." e lui pubblica "1) la cosa più grave ..." .

Inizialmente ho pensato ad un mio refuso, ma andando a correggere vedo che io ho scritto correttamente ma lui mostra male. Ci sarebbe bisogno di più AI :D

0
0
0.000
avatar

Il discorso del plagio uscirà fuori, ma dubito che si riesca a dibattere la questione. Mi è successa molti anni fa una cosa simile, ho scritto del codice, per altro estremamente semplice e corto per Wordpress. Poi un deficiente se ne è uscito da non so dove, dicendo che l'avevo plagiato. Quando gli ho fatto notare che il codice in realtà era stato scritto uguale da non so quante persone, se ne è tornato al suo buco. Chiaramente con un codice più ampio ed esteso, magari introducendo nomi di variabili o di funzioni scritte in modo particolare, si riesce in qualche modo a marcare, ma una AI può cambiarle, quindi la situazione diventerà complicata da provare.

0
0
0.000