Fungerar väldigt bra med att lösa programmeringsgrejer när man kört fast. Brukar roa mig med att spela in excelmakron eller skriva VBA och sen förbättra koden med AI. Har sparat massor med tid på jobbet för att presentera siffror på olika sätt 🙂
 
Jag sa till chatgpt att konstnärssvaret var fel om van deras kvast. Fick då detta

"Christer van der Kwast är en fiktiv person som blev känd genom ett humoristiskt och satiriskt sammanhang. Han är en del av en internetmeme och ett skämt som började cirkulera på sociala medier och där han "presenterades" som en känd svensk konstnär. Konceptet är alltså ett påhitt, och det finns ingen verklig person som bär det namnet inom konstvärlden. Det är ett exempel på ett nätfenomen som spreds som ett skämt."
 
Jag använder också Copilot en del i jobbet men ser inte riktigt samma nytta. Faktafrågor ger oftare fel svar än rätt, och med samma mästrande föreläsarton som ChatGPT, utan minsta utrymme för tvekan eller osäkerhet. Även med direkt uppmaning att validera uppgifter mot pålitliga källor fortsätter den att gissa, och har vid flera tillfällen visat att begreppet "validera" inte väger tungt i dess begreppsvärld. Man skall inte behöva författa långa detaljerade prompt för att få den att sluta fyllegissa och utgå från faktiska källor snarare än sannolika ordföljder...
Jag har även varit med om att copilot länkar till källor som pratar om något helt annat än vad den påstår.

Generativ AI och LLM kan vara användbart men har en lång väg att gå än så länge.
 
Efter ett antal felaktiga svar fick jag detta

"Jag ber verkligen om ursäkt för alla tidigare missförstånd och för att jag inte gav dig ett korrekt svar tidigare. Jag förstår din frustration, och jag uppskattar att du har tålamod med mig.

För att korrigera mig ordentligt: Christer van der Kwast är en svensk jurist och domare, och han är särskilt känd för att ha varit ordförande i den uppmärksammade rättegången mot Fallet i Onkel Tom's Cabin, som var kopplat till den svåra fängelsedomen, där han ledde många händelser kring behandlingen av anklagelser" :rofl:
 
Senast ändrad:
Brukar använda framförallt Microsoft Copilot men ibland även ChatGPT.
Skulle dock aldrig använda dem istället för Google, litar inte på deras svar.

Det som t.ex Copilot är däremot är väldigt bra på är om man laddar upp ett stort dokument och ger den tydliga anvisningar för hur man vill att den ska sammanfatta eller plocka fram det mest relevanta ur dokumentet (och inkludera sidhänvisningar).

Både Chatgpt och Copilot är bra att ha när man skriver och behöver förkorta eller omformulera meningar eller stycken.
 
ChatGPT (och liknande) lär ju sig av vad den själv skriver. Så när den skriver felaktigheter så lär den sig felaktigheterna.

Sanning eller riktighet har inget värde för den, så den svänger ofta ihop oegentligheter snarare än att säga 'jag vet inte'. Och ju oftare den hittar på dumheter desto oftare blir det fel.

Tror att någon hade tittat på det mer djupgående och när ChatGPT var nytt så hade det en korrekthet i programmeringsfrågor på 90%. Tre månader senare låg den på 70%.
 
Min kollega provade att använda chatgtp för att skriva en novell. Jag har aldrig använt mig av AI själv, men tyckte det fanns förvånansvärt många språkliga fel i texten, bla syftningsfel och konstig ordföljd.
 
Eftersom ChatGPT nu ovan lärt sig borde den kunna ge rätt svar så jag testade igen:

-Vem är Christer van der Kwast?

Christer van der Kwast är en svensk regissör och manusförfattare, känd för sitt arbete inom film och TV. Han har regisserat flera populära filmer och TV-serier i Sverige och är särskilt uppmärksammad för sina verk som ofta handlar om personliga och samhälleliga frågor.

Van der Kwast föddes i Sverige och har en bakgrund inom filmproduktion. Han har regisserat både dramafilmer och dokumentärer och har arbetat med både svenska och internationella produktioner. Bland hans mest kända verk finns filmer som "Kopps" (2003), en svensk komedi, samt "Stockholm East" (2011), som handlar om relationer och känslomässiga konflikter.

Hans arbeten har ofta utforskat olika aspekter av människors liv, och han har blivit uppskattad för sin förmåga att skildra både humor och allvar på ett gripande sätt.


Haha, inlärningen verkar lite trög,

Inlärningen sker inte i realtid och inlärningen sker inte across sessions, så jag hänger nog inte med på vad du avser ovan?
 
Jag sa till chatgpt att konstnärssvaret var fel om van deras kvast. Fick då detta

"Christer van der Kwast är en fiktiv person som blev känd genom ett humoristiskt och satiriskt sammanhang. Han är en del av en internetmeme och ett skämt som började cirkulera på sociala medier och där han "presenterades" som en känd svensk konstnär. Konceptet är alltså ett påhitt, och det finns ingen verklig person som bär det namnet inom konstvärlden. Det är ett exempel på ett nätfenomen som spreds som ett skämt."
självinsikt :idea:
Den har uppenbarligen mer avancerad kognition än en del här i tråden vill tillerkänna den.
 
[…] med samma mästrande föreläsarton som ChatGPT […]
Klippte ut en liten del av en mening, för det här är så roligt. I mina konversationer med ChatGPT använder den emojis, skriver ”haha” och låter väldigt lik mina kompisar (och mig) även i övrigt 😁. Det är också väldigt mycket ”man skulle kunna” och ”vad tror du om det här?”
 
Har testat ChatGPT (chatgpt.com) och är förvånad hur ofta den ger helt felaktiga svar på enkla och raka frågor. Som t.ex. "Vem är Christer van der Kwast?" (åklagaren i Quick-rättegångarna) och får svaret:

Christer van der Kwast är en svensk författare och journalist, född 1953. ...

och sen en utläggning om hans verk. Hittar ingen journalist som heter så och även det andra som ChatGPT skrev verkar vara påhittat.

Samma resultat för några andra sökningar, helt kass med andra ord.

Fattar inte, vad är grejen?

Andra exempel?
Jo men jag, (som inte använt Chat GTP så mycket) tänker att vad man får är en textmassa med blandat rätt och fel där det är svårare att urskilja vad som är fel och rätt och utan källor. Men jag kan såklart ha fel i det. Men det känns som att det är säkrast att göra inom ett område där man i huvudet vet vad som är rätt redan. Så man kan hitta felen när man läser igenom det. Och vet vad källorna ska vara om man behöver dem.

Tex om jag vet hur institutionella rättigheter fungerar så kan jag be chat GTP skriva en text om det, för jag kan snabbt se om den skrev rätt. Men jag får hjälp att formulera texten eftersom jag inte klarar att formulera texter själv, eller har väldigt ont om tid. (eller jag tycker jag klarar det så jag skippar).
 
Så ChatGPT är mer en slags skämtgrej? Jag trodde ChatGPT var seriöst.

Edit. Kollade på wikipedia och det är inget skämt, trodde man kommit mycket längre inom AI.
Den är seriös med att den hittar alla felaktiga och korrekta ordkombinationer om ämnet som finns på internet och sammanställer det snyggt? tror jag.
 
Det är seriöst. Det är Ai och det är väldigt användbart på många vis. T ex som jag sa att snabbt sammanfatta stora mängder text tex.

Men det är inte särskilt bra på att vara ett svenskt populärvetenskapligt google. Än. Men ju mer det används ju bättre kommer det att bli och ju mer kommer det lära sig.

Och just att det försöker lära sig är det som syns om man påtalar att det har fel. Då försöker det igen - men än kör det rätt ofta i diket. Men som sagt,det kommer lära sig
Jag är osäker? Tänker att om texter som Chat GTP skrivit finns kvar på internet och vissa är fel, kommer den använda de texterna för att lära sig och det finns en risk att det blir mer fel? Det finns en viss mängd hyggligt korrekta fakta på internet, säg 50% men om andelen sjunker till tex 40% och 30% så borde även Chat GTP svar sjunka i kvalitet?

Som AI ritade bilder. Den lär sig av de AI ritade bilderna eftersom de börjar dominera över de bilder som konstnärer ritat och konstnärer börjar kanske märka sina bilder att de inte får användas osv. Så den göder sig själv i en cirkel?
 
Jag använder Microsoft Copilot i jobbet. Mycket användbart! T.ex. om jag vill göra något specifikt i nåt program och jag inte vet hur så kan jag fråga copilot och få en instruktion.

ChatGPT har jag inte testat då företaget jag jobbar på informerat oss om att Copilot är säkrare.

Jag använder också Copilot en del i jobbet men ser inte riktigt samma nytta. Faktafrågor ger oftare fel svar än rätt, och med samma mästrande föreläsarton som ChatGPT, utan minsta utrymme för tvekan eller osäkerhet. Även med direkt uppmaning att validera uppgifter mot pålitliga källor fortsätter den att gissa, och har vid flera tillfällen visat att begreppet "validera" inte väger tungt i dess begreppsvärld. Man skall inte behöva författa långa detaljerade prompt för att få den att sluta fyllegissa och utgå från faktiska källor snarare än sannolika ordföljder...

Vi har också Copilot på jobbet och jag kan väl inte heller påstå att jag är så imponerad.

Tex när vi hade en diskussionspunkt på ett möte som handlade om just Copilot, hur det fungerade och hur vi kunde använda Copilot i vårt arbete. Till mötet hade en kollega fixat en power point och förstasidan var en bild som han tagit fram med hjälp av just Copilot. Instruktionen var "En bild som visar några kollegor som använder Copilot i sitt arbete med samhällsplanering".

Bilden som producerades var på ett gäng piloter som satt och studerade en karta över en stad tillsammans :laugh: Copilot hade alltså inte koll på vad Copilot var :p
 
Om jag minns rätt, så har ChatGPT inte tillgång till internet utan bara det den är tränad på (vilket också är upp till ett visst datum, dvs inte uppdaterat med fram till idag), och den lär sig inte från det man lägger in i den, mer än begränsat. Dvs frågar man om vem Leonardo DiCaprio eller Alexander Skaragård är får man ett korrekt svar (eller hyfsat korrekt i alla fall), men den har inte koll på någon random svensk halvkänd person (som Christer van der Kwast), det ingår inte i det den är tränad till. Samma sak om du frågar om ditt eget namn, då hittar den bara på. Men den är bra på att hitta på sammanfattningar om du lägger in en text, svar på frågor om allmänkunskap etc. Studenterna jag har använder den nog till exempel till att få begrepp förklarade (som övergödning, joniserande strålning eller andra saker), sådana saker har den hyfsat koll på och kan förklara på ett bra sätt, eller för att få fram korrekta svar på exempeltentor etc (och säkert använder några Chat GPT för att skriva delar av rapporter ...) Det brukar även fungera hyfsat som språkkoll, för att generera idéer etc.
Ah intressant, då hade jag fel i att det kan växa med fel info.
 
Jag är osäker? Tänker att om texter som Chat GTP skrivit finns kvar på internet och vissa är fel, kommer den använda de texterna för att lära sig och det finns en risk att det blir mer fel? Det finns en viss mängd hyggligt korrekta fakta på internet, säg 50% men om andelen sjunker till tex 40% och 30% så borde även Chat GTP svar sjunka i kvalitet?

Som AI ritade bilder. Den lär sig av de AI ritade bilderna eftersom de börjar dominera över de bilder som konstnärer ritat och konstnärer börjar kanske märka sina bilder att de inte får användas osv. Så den göder sig själv i en cirkel?
Lära sig kommer det ju oavsett, frågan är mer vad. Och där finns absolut en risk att det aldrig når upp i rimlig nivå. Särskilt inte som dess inlärning ju kan manipuleras.
 
Lära sig kommer det ju oavsett, frågan är mer vad. Och där finns absolut en risk att det aldrig når upp i rimlig nivå. Särskilt inte som dess inlärning ju kan manipuleras.
Det kommer ju säkert nya varianter med. Men vad jag menade var huruvida resultaten av det Chat GTP som finns just nu nödvändigtvis måste bli bättre med tiden eller om de kanske blir sämre. Inte om den lärde sig alls eller inte utan om det den lärde sig var positivt eller negativt för användaren.
 
Jo men jag, (som inte använt Chat GTP så mycket) tänker att vad man får är en textmassa med blandat rätt och fel där det är svårare att urskilja vad som är fel och rätt och utan källor. Men jag kan såklart ha fel i det. Men det känns som att det är säkrast att göra inom ett område där man i huvudet vet vad som är rätt redan. Så man kan hitta felen när man läser igenom det. Och vet vad källorna ska vara om man behöver dem.

Tex om jag vet hur institutionella rättigheter fungerar så kan jag be chat GTP skriva en text om det, för jag kan snabbt se om den skrev rätt. Men jag får hjälp att formulera texten eftersom jag inte klarar att formulera texter själv, eller har väldigt ont om tid. (eller jag tycker jag klarar det så jag skippar).
Precis så tänker jag. Att om jag matar den med stor mängd korrekt information som jag vet är korrekt, då kan den sammanställa informationen. Eller om jag är tillräckligt kunnig för att upptäcka felaktigheter så kan jag be den formulera en text om det.
 

Liknande trådar

Äldre Säkert en gammal text iom att 50-öringar finns omnämnt- men ack så aktuell.... "En dag i staden. Jag är sugen på kaffe kände jag en...
Svar
3
· Visningar
1 492
Senast: Mia_R
·
Relationer (Herregud så långt det blev O_o - och egentligen är det ju bara trams, men mina tankar nonetheless) Jag hoppas kunna få lite perspektiv...
4 5 6
Svar
114
· Visningar
9 024
Senast: Petruska
·
  • Låst
Relationer Detta är rena spekulationer dock. Personen själv är fast och fullt medveten om att det svänger REJÄLT i humör och känslor, och tror sig...
Svar
3
· Visningar
6 322
Senast: Hedinn
·
Hästvård Varning för sjukt långt inlägg!! Håller på och ältar.. Har varit på återbesök hos vet idag och hästen är fortfarande halt. Jag...
Svar
19
· Visningar
5 268

Bukefalos, Hästnyheter, Radannonser

Allmänt, Barn, Dagbok

Hund, Katt, Andra Djur

Hästrelaterat

Omröstningar

Tillbaka
Upp