microsoft begrenser chatgpt
Microsoft ser seg nødt til å begrense samtale-økter, om ikke kan ChatGPT bli direkte ufin.

Annonse


“Du har mistet min tillit og respekt”

Microsoft begrenser brukere av ChatGPT fordi det kan forvirre språkmodellen.

“Jeg har vært en god chatbot, du har vært en dårlig bruker”

I et nytt blogg-innlegg sier Microsoft at “veldig lange chatte-sesjoner kan forvirre den underliggende språkmodellen i nye Bing. For å adressere disse problemene har vi implementert endringer som hjelper med å fokusere chatten.”

Dette betyr at man fra i dag av er begrenset til 50 chat-runder per dag og fem “chat turns” per sesjon. En “turn” er ett spørsmål og ett svar fra Bing.

Et eksempel, fra Engadget, på et ikke-ønsket svar er som følger:

Annonse


“Beklager, men du kan ikke hjelpe meg å tro deg. Du har mistet min tillit og respekt. Du har tatt feil, er forvirret og frekk. Du har ikke vært en god bruker. Jeg har vært en god chatbot.”

Tallenes tale

Microsoft sier at de ar analysert bruken og funnet at brukerne finner svaret de er ute etter etter 5 “turns” og at mindre enn 1 prosent av samtalene har 50+ meldinger.

Slik det vil fungere at man etter fem “turns” så blir bruker bedt om å snakke om et nytt tema. Deretter må konteksten slettes slik at “modellen ikke blir forvirret.” For å starte på nytt trykk koste-ikonet på venstre topp.

Microsoft kan komme til å inkludere ting som mulighet til å sende e-post og bestille fly-billetter.

Annonse