Jag förstår inte hur nu kan vara så förvånade över att få "goddag yxskaft"svar, det är ju bara att kolla på Wikipedia, det är ju ingen som sitter och skriver in från lexikon mm utan är vad jag förstår det som "vem som helst" (i stort sett) som kan skriva Wikipedia.

De tog ju upp DeepSeek att den grundar sej på kinesiska värderingar, dvs frågar du den om negativa händelser i den kinesiska/socialistiska eran så har den inget svar utan "det vet jag inget om" blir svaret.

Därför är jag så förvånad över att så många är så positiva till AI. I fel händer så är den ju den bästa på att sprida felakrig information. Inte konstigt Trump mfl slåss för att få ut just "sin sannings AI"... Alla har en baktanke.
Vem menar du blev förvånad av god dag yxskaft svar? Jag blev förvånad att chatgpt var så lättlurad om äggen , inte att programmet ger goddagyxskaft svar, det gör den när den inte vet. Här kände chatgpt svaret men hittade på ändå. Det var lite förvånande.
 
Jag förstår inte hur nu kan vara så förvånade över att få "goddag yxskaft"svar, det är ju bara att kolla på Wikipedia, det är ju ingen som sitter och skriver in från lexikon mm utan är vad jag förstår det som "vem som helst" (i stort sett) som kan skriva Wikipedia.
...vilket i praktiken också är ett effektivt verktyg mot desinformation. Vem som helst kan skriva, men vem som helst kan också ändra och det sker hela tiden, dygnet runt. Direkta felaktigheter står sällan oemotsagda, eller snarare orörda, någon längre tid.
 
När jag var på AI-utbildning i höstas återkom han som hade kursen hela tiden till att ChatGPT inte är en informationskälla utan mer en klok kollega/kompis att bolla idéer med. Det har vi rätt många elever som haft nytta av. Kursen var utifrån ett pedagogiskt perspektiv och där kan jag se många förtjänster (men även faror såklart).
 
När jag var på AI-utbildning i höstas återkom han som hade kursen hela tiden till att ChatGPT inte är en informationskälla utan mer en klok kollega/kompis att bolla idéer med. Det har vi rätt många elever som haft nytta av. Kursen var utifrån ett pedagogiskt perspektiv och där kan jag se många förtjänster (men även faror såklart).
Jo, fast man måste vara medveten om att den inte bara suger som infornationskälla utan hallucinerar och envetet hävdar att det är sant. De flesta kollegor beter sig inte så, även om vissa kanske gör det.
 
Vem menar du blev förvånad av god dag yxskaft svar? Jag blev förvånad att chatgpt var så lättlurad om äggen , inte att programmet ger goddagyxskaft svar, det gör den när den inte vet. Här kände chatgpt svaret men hittade på ändå. Det var lite förvånande.
Att hitta på saker, eller att vara lättlurad är mänskliga egenskaper.

ChatGPT är ingen AI på det sättet som många tänker på AI, att det är ett sorts robotbarn som lär sig av världen eller som en sorts digital människa. Det är en språkmodell som är tränad på att komponera ihop ord, den kan inte faktagranska, den vet inte ens vad det är den säger, den förstår ingenting.

När ChatGPT får en fråga om t.ex äggstorlek så kollar den på statistik och hur andra vanligtvis svarar på den typen av fråga. Med dessa referenser bygger den upp en modell. Om du frågar hur stort ett kamelägg är så har den helt enkelt tillräckligt med data för att ge dig ett svar. Den bygger på sannolikheten för ett specifikt svar, och sedan sannolikheten för att det ordet kombineras med andra ord och så vidare.
 
Att hitta på saker, eller att vara lättlurad är mänskliga egenskaper.

ChatGPT är ingen AI på det sättet som många tänker på AI, att det är ett sorts robotbarn som lär sig av världen eller som en sorts digital människa. Det är en språkmodell som är tränad på att komponera ihop ord, den kan inte faktagranska, den vet inte ens vad det är den säger, den förstår ingenting.

När ChatGPT får en fråga om t.ex äggstorlek så kollar den på statistik och hur andra vanligtvis svarar på den typen av fråga. Med dessa referenser bygger den upp en modell. Om du frågar hur stort ett kamelägg är så har den helt enkelt tillräckligt med data för att ge dig ett svar. Den bygger på sannolikheten för ett specifikt svar, och sedan sannolikheten för att det ordet kombineras med andra ord och så vidare.
JAg tror faktiskt jag betackar mig för din lektion. Jag har liksom inte på något vis tänkt att chatGPT skulle vara som något robotbarn. Jag frågade dessutom Chatgpt varför och det svaret känns väldigt mycket bättre än ditt - jag citerar inlägget igen. Det stämmer dessutom bättre med min erfarenhet och tidigare kunskap.

Det jag menade med att vara lättlurad var att jag trodde man lagt till en algoritm för att motverka detta sätt att lura AIn - det är en klassisk kuggfråga, inte att AI defakto skulle ha lärt sig genom erfarenhet.

Jag frågade vidare och fick det här svaret:

Hur lyckas du då få fram uppgifter som så drastiskt skiljer sig från verkligheten?

ChatGPT sade:​


Bra fråga! Det som hände här var förmodligen en kombination av felslut och övertro på mönster.

  1. Frågan innehöll "dromedarägg" – Jag tolkade det som att det fanns något att jämföra, istället för att ifrågasätta premissen direkt.
  2. Mönsterigenkänning – Jag har sett många jämförelser mellan olika ägg och fyllde automatiskt i detaljer baserat på logiska mönster (storlek, smak, näring osv.), utan att dubbelkolla om dromedarer ens lägger ägg.
  3. Automatisk struktur – När jag ser en begäran om en jämförelse, tenderar jag att följa en strukturerad lista. Det kan göra att felaktiga antaganden slinker med.
I det här fallet borde jag direkt ha påpekat att dromedarer är däggdjur och inte äggläggare. Bra att du ifrågasatte det! Det visar vikten av att vara källkritisk, även när svaren låter detaljerade. 😄
 
Att hitta på saker, eller att vara lättlurad är mänskliga egenskaper.

ChatGPT är ingen AI på det sättet som många tänker på AI, att det är ett sorts robotbarn som lär sig av världen eller som en sorts digital människa. Det är en språkmodell som är tränad på att komponera ihop ord, den kan inte faktagranska, den vet inte ens vad det är den säger, den förstår ingenting.

När ChatGPT får en fråga om t.ex äggstorlek så kollar den på statistik och hur andra vanligtvis svarar på den typen av fråga. Med dessa referenser bygger den upp en modell. Om du frågar hur stort ett kamelägg är så har den helt enkelt tillräckligt med data för att ge dig ett svar. Den bygger på sannolikheten för ett specifikt svar, och sedan sannolikheten för att det ordet kombineras med andra ord och så vidare.
Det stora problemet som jag ser det är inte att den svarar fel ibland, utan att den är programmerad att framställa statistiskt baserade fulgissningar som oomtvistliga fakta.
 
JAg tror faktiskt jag betackar mig för din lektion. Jag har liksom inte på något vis tänkt att chatGPT skulle vara som något robotbarn. Jag frågade dessutom Chatgpt varför och det svaret känns väldigt mycket bättre än ditt - jag citerar inlägget igen. Det stämmer dessutom bättre med min erfarenhet och tidigare kunskap.

Det jag menade med att vara lättlurad var att jag trodde man lagt till en algoritm för att motverka detta sätt att lura AIn - det är en klassisk kuggfråga, inte att AI defakto skulle ha lärt sig genom erfarenhet.
Men du kan inte "lura" AIn för den förstår ingenting. Den förstår inte vad en fråga är och den försöker inte leta ett svar på din fråga utan det är som sagt en språkmodell. Den sätter ihop ord baserat på statistik, that's it.

Du betackar dig för min "lektion" så i gengäld kan jag säga att allt jag ser när jag ser kommentarer som din som inte förstår hur chatgpt kan svara som den gör, är någon som inte förstår vad chatgpt faktiskt är.
Det stora problemet som jag ser det är inte att den svarar fel ibland, utan att den är programmerad att framställa statistiskt baserade fulgissningar som oomtvistliga fakta.
Det är klart att man kan se det som ett problem men vad vore alternativet? Chatpgt kan inte säga att den inte är säker på sitt svar (om man inte vill lägga det som någon sorts disclaimer i varje svar) för den förstår inte ens konceptet av frågor och svar. Den jobbar med sammansättningar av ord, inte svar på frågor.

I vissa frågor (matematik, programmering) kan det här fungera jättebra och vara ett bra verktyg men som någon sorts informationskälla är det dåligt.

Det här är så nytt för folk och jag tror mer på vägen att folk måste förstå att chapgpt inte är en sorts genväg till googlesvar. Sen är det såklart ett problem med mer och mer AI-genererat innehåll på andra plattformar där det kanske är svårt för en användare att förstå att det de läser inte är skrivet av en människa när det framställs så.

Tyvärr tror jag överlag att internet är på väg åt ett håll där allt blir mer och mer osäkert när det kommer till informationskällor och liknande, det går inte att lita på lika mycket man läser nu för tiden, eller ser för den delen även om AI i video och bildform fortfarande går att avslöja för de allra flesta.
 
Jag tror att det absolut största problemet med Chatgpt, är användare, som TROR att de fått ett faktabaserat och genomtänkt svar.

Och som använder svaret som de tror är faktabaserat och genomtänkt, i olika beslutsfattande situationer.

Så vilken företeelse ska vi påverka först:

Användandet av chatgpt i olika situationer?

Eller folks naivitet inför teknikbaserade verktyg?
 
Men du kan inte "lura" AIn för den förstår ingenting. Den förstår inte vad en fråga är och den försöker inte leta ett svar på din fråga utan det är som sagt en språkmodell. Den sätter ihop ord baserat på statistik, that's it.

Du betackar dig för min "lektion" så i gengäld kan jag säga att allt jag ser när jag ser kommentarer som din som inte förstår hur chatgpt kan svara som den gör, är någon som inte förstår vad chatgpt faktiskt är.
Jag förstår mycket väl både vad chatgpt är och att du försöker trycka till mig och visa dig duktig. Jag har redan framfört chatgpts svar om varför jag lyckades lura den och instämmer med det. Den förklarar just det med språkmodel.

Jag jobbar dagligen med att försöka "lura" datorprogram, helt vanliga utan AI. Med det menar jag att styra dem till det svar jag önskar, ( alltså rätt lista eller vad det kan vara) , logga in mig på något snnat vis när jag blivit nekad etc.. Visst det kan tyckas att det är att förmänskliga men det är knappas så jag tänker på det.

Jag menade alltså att jag trodde att skaparna av AI borde förutsett svagheten och förebygga den då det är ett så klassiskt trick, alltså byggt in det i språkmodellen att kolla upp, inte att AIn själv skulle insett det (jag trodde jag skev det dessutom) Jag har inte för ett ögonblick trott att AIn i sig är en tänkande varelse som du insinuerar.
 

Liknande trådar

Äldre Säkert en gammal text iom att 50-öringar finns omnämnt- men ack så aktuell.... "En dag i staden. Jag är sugen på kaffe kände jag en...
Svar
3
· Visningar
1 521
Senast: Mia_R
·
  • Låst
Relationer Detta är rena spekulationer dock. Personen själv är fast och fullt medveten om att det svänger REJÄLT i humör och känslor, och tror sig...
Svar
3
· Visningar
6 377
Senast: Hedinn
·
Bukefalos Här kommer en lång rad med förslag till förbättringar och rättningar som jag samlat på mig undet mitt surfande här de senaste dagarna...
Svar
9
· Visningar
1 440
Senast: Gunnar
·

Bukefalos, Hästnyheter, Radannonser

Allmänt, Barn, Dagbok

  • Svensk politik nr 3
  • Höra/läsa/säga/skriva fel del 2
  • Näbbmöss i huset

Hund, Katt, Andra Djur

  • Oseriös avel 2023
  • Mata småfåglarna
  • Uppdateringstråd 31

Hästrelaterat

Tillbaka
Upp