5. Förslag på linkedinlägg baserat på vad jag skulle vilja skriva om (däremot kräver det ju att man formulerar om en del och gör det mer autentiskt)

Får man fråga varför...? :confused: Är inte poängen med att skriva inlägg på LinkedIn att man skriver för att ge en bild av sig själv och sina egna tankar om ett visst ämne, inte vad en robot sammanfattat? Eller tänker du att om man erbjuder dig ett uppdrag så är det egentligen din användning av roboten man köper?
 
Samtidigt om det blev bättre och alla använde det skulle det bli väldigt konstigt till slut.

Vissa använder det för att skriva texter och andra använder det för att läsa-sammanfatta de skrivna texterna. Då kan man kanske egentligen strunda i bådadera. Eftersom det blir en tom rundgång vars större textmassa aldrig passerar en mänsklig hjärna.

Får en att hoppas att de få studenter som en dag tänkte forska i alla fall överväger att läsa och skriva text. Annars blir de totalt meningslösa. Kan föreställa mig framtida doktorsavhandlingar. Chat GDP skriver dem åt doktoranden och bedömer dem åt betygsnämnden. Och alla som ska se över artiklar inför publicering sammanfattar dem med Chat GDP och godkänner varpå artiklarna publiceras och sammanfattas av Chat GDP till lättuggat material som academia klarar att ta till sig. Härlig bild. Speciellt om de som ska doktorera inom naturvetenskaperna börjar använda det också. Vad ska vi ha oss till då och varför lägga 3-5 år på det, blir ju totalt slöseri, kanske korta studierna till ett år?

Själv tänker jag kanske att man kan strunta i att plugga tex litteratur, om man inte tänker läsa litteratur. (var en artikel om litteraturstudier där studenterna var chockade över att behöva läsa böckerna).
äh GPT slant
 
Det blir lite problematiskt att koppla ihop intelligens med att vara sanningsenlig, det är ju egentligen inte alls samma sak. Human intelligens används verkligen inte alltid för att hålla sig objektivt korrekt, så varför finns den förväntan på artificiell intelligens?
 
Det blir lite problematiskt att koppla ihop intelligens med att vara sanningsenlig, det är ju egentligen inte alls samma sak. Human intelligens används verkligen inte alltid för att hålla sig objektivt korrekt, så varför finns den förväntan på artificiell intelligens?
Man kopplar väl ganska ofta historiskt sett mänsklig intelligens med att personen har ett visst mått av kunskap i grunden, dvs faktakunskaper i visst mått. (numera dock kontrollerbara med typ wiki och annat, men tidigare var man tvungen att lita på det iom att få hade lexikon med sig). Dvs den mänskliga intelligensen tenderar bedömas på hur väl någon tex har hand om en maskin och kan förklara den och lära ut om den och höjs ytterligare om personen klarar att utveckla maskinen eller motsvarande mer teoretiskt.

Så det är nog svårt att greppa faktiskt att någonting inte är intelligent och någonting inte kan bedöma fakta, men framställer texter som låter som om den hade båda. Egentligen inte alls konstigt.
 
Man kopplar väl ganska ofta historiskt sett mänsklig intelligens med att personen har ett visst mått av kunskap i grunden, dvs faktakunskaper i visst mått. (numera dock kontrollerbara med typ wiki och annat, men tidigare var man tvungen att lita på det iom att få hade lexikon med sig). Dvs den mänskliga intelligensen tenderar bedömas på hur väl någon tex har hand om en maskin och kan förklara den och lära ut om den och höjs ytterligare om personen klarar att utveckla maskinen eller motsvarande mer teoretiskt.

Så det är nog svårt att greppa faktiskt att någonting inte är intelligent och någonting inte kan bedöma fakta, men framställer texter som låter som om den hade båda. Egentligen inte alls konstigt.

Nja, jag skulle snarare kalla kunskap för just kunskap, men ofta har intelligenta människor samlat på sig mycket kunskap eftersom de tack vare sin intelligens haft nytta av kunskapen.

Jag skulle säga att en person som har mycket kunskap men är oärlig och duperar och manipulerar troligtvis är mer "intelligent", än någon som också har mycket kunskap men inte skulle klara av att använda den kunskapen för att lura andra ens om hän ville.

Men intelligens är ju ett mycket diskuterbart begrepp i sig, vad det faktiskt är. Likaså vad som är sanning, det varierar till vilken grad det finns odiskutabla fakta och inte, vilket delvis har med den sociala kontexten att göra. Jag ville bara säga att jag inte tycker att det kan antas att man är sanningsenlig bara för att man är intelligent, oavsett människa eller maskin.
 
Man kopplar väl ganska ofta historiskt sett mänsklig intelligens med att personen har ett visst mått av kunskap i grunden, dvs faktakunskaper i visst mått. (numera dock kontrollerbara med typ wiki och annat, men tidigare var man tvungen att lita på det iom att få hade lexikon med sig). Dvs den mänskliga intelligensen tenderar bedömas på hur väl någon tex har hand om en maskin och kan förklara den och lära ut om den och höjs ytterligare om personen klarar att utveckla maskinen eller motsvarande mer teoretiskt.

Så det är nog svårt att greppa faktiskt att någonting inte är intelligent och någonting inte kan bedöma fakta, men framställer texter som låter som om den hade båda. Egentligen inte alls konstigt.
Det knepiga är väl att mottagaren av informationen blir helt avskuren från kontexten och därmed gravt handikappad när det gäller att tillämpa grundläggande källkritik. Antingen ska man blåögt lita på alltför mycket, eller så ska man dissa så mycket att det tappar sin poäng att använda.

Är väl därför som 'allmänna frågor' tenderar att bli så fel, medan den som använder efter en medveten strategi inom ett område där hen redan har kunskaper för att bedöma resultatet blir bättre?
Som med alla verktyg behövs det att man vet hur och när de ska användas (resp. inte ska användas) för att de ska vara till nytta.
 
Nja, jag skulle snarare kalla kunskap för just kunskap, men ofta har intelligenta människor samlat på sig mycket kunskap eftersom de tack vare sin intelligens haft nytta av kunskapen.

Jag skulle säga att en person som har mycket kunskap men är oärlig och duperar och manipulerar troligtvis är mer "intelligent", än någon som också har mycket kunskap men inte skulle klara av att använda den kunskapen för att lura andra ens om hän ville.

Men intelligens är ju ett mycket diskuterbart i sig, vad det faktiskt är. Likaså vad som är sanning, det varierar till vilken grad det finns odiskutabla fakta och inte, vilket delvis har med den sociala kontexten att göra. Jag ville bara säga att jag inte tycker att det kan antas att man är sanningsenlig bara för att man är intelligent, oavsett människa eller maskin.
Ja jag skrev inte vad kunskap och intelligens bör kallas utan hur dessa normalt uppfattas hos en person.
 
Det knepiga är väl att mottagaren av informationen blir helt avskuren från kontexten och därmed gravt handikappad när det gäller att tillämpa grundläggande källkritik. Antingen ska man blåögt lita på alltför mycket, eller så ska man dissa så mycket att det tappar sin poäng att använda.

Är väl därför som 'allmänna frågor' tenderar att bli så fel, medan den som använder efter en medveten strategi inom ett område där hen redan har kunskaper för att bedöma resultatet blir bättre?
Som med alla verktyg behövs det att man vet hur och när de ska användas (resp. inte ska användas) för att de ska vara till nytta.
Ja, tex ett användningsområde där en högt utbildad person en gång ska försöka förklara sitt område för en person som inte har samma kunskaper på området verkar det ju helt genialt att få hjälp av en maskin.

Men å andra sidan känns det inte som att det är så man vill att alla läroböcker ska skrivas.
 
Ja jag skrev inte vad kunskap och intelligens bör kallas utan hur dessa normalt uppfattas hos en person.

Jag hade lite svårt att förstå sista stycket, om den sista meningen betyder att du svängde 180 från det du skrev i första meningen?

Jag tycker i alla fall inte att brist på fakta om en viss person och att den tillfrågade då drar en rövare, kan säga att den personen/maskinen är "ointelligent" eftersom jag inte tycker att intelligens och alltid säga sanning och korrekt fakta hör ihop på det sättet.
 
Jag hade lite svårt att förstå sista stycket, om den sista meningen betyder att du svängde 180 från det du skrev i första meningen?

Jag tycker i alla fall inte att brist på fakta om en viss person och att den tillfrågade då drar en rövare, kan säga att den personen/maskinen är "ointelligent" eftersom jag inte tycker att intelligens och alltid säga sanning och korrekt fakta hör ihop på det sättet.
Jag tror vi för olika diskussioner helt och hållet.

Jag pratar hur människor uppfattar saker. (du kanske pratar om hur saker är)

Det blir lite problematiskt att koppla ihop intelligens med att vara sanningsenlig, det är ju egentligen inte alls samma sak. Human intelligens används verkligen inte alltid för att hålla sig objektivt korrekt, så varför finns den förväntan på artificiell intelligens?

Så jag försöker svara igen.

Eftersom mänsklig intelligens ofta, om det bedöms ytligt (inte efter examina) bedöms på vad någon säger om någonting. Dvs tex presenterad kunskap om någonting. Och att man också bedömer mänsklig intelligens på hur kunskapen presenteras i ord, dvs tex välvårdat språk.

Trots att varken kunskap eller välvårdat språk är samma sak som intelligens. (så drar människor lätt sådana, ibland felaktiga, slutsatser)

Så är det inte konstigt att om någonting presenterar en text som är välformulerad, textboksartad med information som låter välgrundad. Att det finns en förväntan om att informationen även är korrekt, helt enkelt av gammal vana.

Eftersom välformulerade texter i textböcker är vi helt enkelt vana vid är faktakontrollerade.

Därför verkar människor förvänta sig att man kan använda Chat GTP som faktasökare.

Dessutom är det så att människor visst undermedvetet verkar förvänta sig att välformulerade ord från en god retoriker är hyggligt korrekta och att retorikern besitter ett visst mått av intelligens. Även Trump har personer som tror att han ibland säger annat än osanningar trots att det är en mycket liten % av vad han säger, och sannolikt anser att han är mycket smart. (om han är smart/intelligent vet vi ju inte)
 
Senast ändrad:
Min kompis säger att man ska betrakta chatgpt som en kompis som killgissar...
Och jag känner en som påpekade (bland mycket annat) att man bör vara medveten om att det är en vit cis-man som svarar.

Så ja, man bör ju absolut ha i bakhuvudet vad de lär sig av och använda därefter.
 
Får man fråga varför...? :confused: Är inte poängen med att skriva inlägg på LinkedIn att man skriver för att ge en bild av sig själv och sina egna tankar om ett visst ämne, inte vad en robot sammanfattat? Eller tänker du att om man erbjuder dig ett uppdrag så är det egentligen din användning av roboten man köper?

Utan att svara för just @Derivata så är min uppfattning att poängen med LinkedIn för många är att bygga personligt varumärke. Men gällande vilket stöd ChatGPT ger så är ju det en gemensam fråga för all kommunikation. De flesta stora företagsledare har spökskrivare på kommunikationsavdelningen, alla politiker har talepunkter eller till och med en egen pressis. Om jag bollar fram idéer till en text med en kollega, min man eller ChatGPT.. är det skillnad? Jag tror att vi kompromissar mer med det autentiska sen ChatGPT kom men gråzonen har ju alltid funnits där.

En branschkollega skrev nyligen på LinkedIn, angående användandet av ChatGPT i personliga brev, att en bra text är en bra text. Jag tänker nog lite så. Antingen har personen skrivit texten själv eller redigerat ett AI-förslag. Oavsett tyder det på gott omdöme om texten i sig är bra, och hade jag anlitat exempelvis en kommunikatör så är det omdömet jag hade betalat för. Har hen effektiviserat tillvägagångssättet är det bara ett plus i kanten.
 
Utan att svara för just @Derivata så är min uppfattning att poängen med LinkedIn för många är att bygga personligt varumärke. Men gällande vilket stöd ChatGPT ger så är ju det en gemensam fråga för all kommunikation. De flesta stora företagsledare har spökskrivare på kommunikationsavdelningen, alla politiker har talepunkter eller till och med en egen pressis. Om jag bollar fram idéer till en text med en kollega, min man eller ChatGPT.. är det skillnad? Jag tror att vi kompromissar mer med det autentiska sen ChatGPT kom men gråzonen har ju alltid funnits där.

En branschkollega skrev nyligen på LinkedIn, angående användandet av ChatGPT i personliga brev, att en bra text är en bra text. Jag tänker nog lite så. Antingen har personen skrivit texten själv eller redigerat ett AI-förslag. Oavsett tyder det på gott omdöme om texten i sig är bra, och hade jag anlitat exempelvis en kommunikatör så är det omdömet jag hade betalat för. Har hen effektiviserat tillvägagångssättet är det bara ett plus i kanten.

Vi har fått in en del jobbansökningar där användandet av AI-genererad text lyser igenom. Det är inte ett plus i kanten, men det är kanske snarare bristen på förmåga att använda AI som ger minuset.

Det slentrianmässiga och bristfälliga användandet av AI för att "effektivisera" är av ondo och det är tyvärr alltmer utbrett.

Den bästa användningen jag sett hittills är där man skriver originaltexten själv och sedan låter AI redigera den. Alltså inte tvärtom.
 
För en ingenjör som började sin karriär i förra århundradet med att jobba med neuronnät och inlärning av dem är hypen med denna AI ganska intressant. Att det fungerar så "skrämmande" likt människor när det gäller just språkmodeller är såklart en hyfsad upptäckt, men AI är så mycket mer än LLM. Och har funnits med oss länge. Bland annat i våra fordon. Men det är verkligen inte magi.
 
Vi har fått in en del jobbansökningar där användandet av AI-genererad text lyser igenom. Det är inte ett plus i kanten, men det är kanske snarare bristen på förmåga att använda AI som ger minuset.

Det slentrianmässiga och bristfälliga användandet av AI för att "effektivisera" är av ondo och det är tyvärr alltmer utbrett.

Den bästa användningen jag sett hittills är där man skriver originaltexten själv och sedan låter AI redigera den. Alltså inte tvärtom.

Jo, jag vet allt om slentrianmässigt och bristfälligt användande av AI. Jag jobbar med just text, bland annat. Men det du beskriver är vad jag i mitt inlägg kallar omdöme. Om jag får in en bra text så är det en bra text. Om jag får in en dålig text så är det en dålig text. Helt oavsett hur skapandet av den har gått till. Mitt svar till @Thaliaste handlade om autenticiteten som många lyfter i diskussionen om AI. I min värld är det inget problem i professionella sammanhang, eftersom det är resultatet som spelar roll där (och nej, här håller AI sällan måttet på egna ben). Hade jag däremot fått ett AI-genererat kärleksbrev av min man så kanske autenticiteten hade spelat större roll.
 
Utan att svara för just @Derivata så är min uppfattning att poängen med LinkedIn för många är att bygga personligt varumärke. Men gällande vilket stöd ChatGPT ger så är ju det en gemensam fråga för all kommunikation. De flesta stora företagsledare har spökskrivare på kommunikationsavdelningen, alla politiker har talepunkter eller till och med en egen pressis. Om jag bollar fram idéer till en text med en kollega, min man eller ChatGPT.. är det skillnad? Jag tror att vi kompromissar mer med det autentiska sen ChatGPT kom men gråzonen har ju alltid funnits där.

En branschkollega skrev nyligen på LinkedIn, angående användandet av ChatGPT i personliga brev, att en bra text är en bra text. Jag tänker nog lite så. Antingen har personen skrivit texten själv eller redigerat ett AI-förslag. Oavsett tyder det på gott omdöme om texten i sig är bra, och hade jag anlitat exempelvis en kommunikatör så är det omdömet jag hade betalat för. Har hen effektiviserat tillvägagångssättet är det bara ett plus i kanten.
Om man kompromissar med det autentiska har jag inte problem med (i princip, och så länge man inte är oärlig kring vad man gör). Men frågan är om man också kompromissar kring källhantering, informations tillförlitlighet och ursprung osv. Och om man själv har koll på i vilken utsträckning man gör det?

En intressant fråga på sikt är i vilken mån uppfattningen om vad som är 'en bra text' kommer att förändras?
 
Om man kompromissar med det autentiska har jag inte problem med (i princip, och så länge man inte är oärlig kring vad man gör). Men frågan är om man också kompromissar kring källhantering, informations tillförlitlighet och ursprung osv. Och om man själv har koll på i vilken utsträckning man gör det?

En intressant fråga på sikt är i vilken mån uppfattningen om vad som är 'en bra text' kommer att förändras?

Det beror lite på vad man använder det till. I min bransch (kommunikation) så använder de flesta ChatGPT till att skriva texter om den egna tjänsten eller produkten. Här sitter vi ju själva på expertkunskapen och märker om AI har gjort felaktiga slutsatser eller formuleringar. Man bör inte använda det som källa för information eller fakta (ännu).

Det är en intressant frågeställning du gör. På ett sätt skapar ju ChatGPT en hel del texter som faktiskt är bättre än de som använts i kommunikation där ute hittills. Många småföretag har ingen kommunikatör och kommunikationen har varit därefter. Här kan ju AI faktiskt hjälpa till lite, både med formuleringar, idéer och korr. Det är ju toppen! Samtidigt är ju AI fortfarande långt ifrån att kunna skapa en text i nivå som en skicklig kommunikatör/författare/journalist/copy kan. Så med andra ord.. i dagsläget kanske vi är i ett läge där den lägsta nivån har goda möjligheter att höjas, men de högre nivåerna kvarstår. Och vi läser ju mycket av de högre nivåerna, i större företags kommunikation och etablerade medier. Så upplevelsen, just nu, kanske inte förändras så mycket.
 
Det beror lite på vad man använder det till. I min bransch (kommunikation) så använder de flesta ChatGPT till att skriva texter om den egna tjänsten eller produkten. Här sitter vi ju själva på expertkunskapen och märker om AI har gjort felaktiga slutsatser eller formuleringar. Man bör inte använda det som källa för information eller fakta (ännu).

Det är en intressant frågeställning du gör. På ett sätt skapar ju ChatGPT en hel del texter som faktiskt är bättre än de som använts i kommunikation där ute hittills. Många småföretag har ingen kommunikatör och kommunikationen har varit därefter. Här kan ju AI faktiskt hjälpa till lite, både med formuleringar, idéer och korr. Det är ju toppen! Samtidigt är ju AI fortfarande långt ifrån att kunna skapa en text i nivå som en skicklig kommunikatör/författare/journalist/copy kan. Så med andra ord.. i dagsläget kanske vi är i ett läge där den lägsta nivån har goda möjligheter att höjas, men de högre nivåerna kvarstår. Och vi läser ju mycket av de högre nivåerna, i större företags kommunikation och etablerade medier. Så upplevelsen, just nu, kanske inte förändras så mycket.
Om man vill jämföra med texter i media och korrläsning så har ju stavningsrättningsprogrammen gjort att nivån rent allmänt sänkts på grammatik och stavning. Iom att de helt enkelt inte längre verkar ha korrläs. Så upplevelsen av att läsa tidningar har ju sänkts till viss del.

Så jag tänker att det är en möjlig framtid. Speciellt om många unga varken kan sammanställa en text själva eller orkar läsa en. Då blir det svårt att bedöma en text.
 
Jag använder ofta chat GPT, jag har diskuterat recept, menyer , bett om översättningar och förbättringar av texter (mer formellt till exempel) , kollat öppettider i affärer, slagit upp faktafrågor mm. Behöver jag namnet på en tjänst eller ett kommado till windows så får jag snabbt svar. Jag litar dock aldrig fullt på svaren och att fråga om specifikt svenska saker blir typ aldrig rätt. Jag fick precis den här listan, jag tror inte någon här gjort det sämre.

Här är tio kända hästar från svensk barnlitteratur:

  • Lilla Gubben – Pippi Långstrumps häst från Astrid Lindgrens böcker. En vit häst med svarta prickar som Pippi lyfter utan problem.
  • Trollflickans häst – En häst från Tove Janssons Mumin som dyker upp i berättelsen om Trollvinter, även om Mumin är mer finsk än svensk.
  • Lukas – Emil i Lönnebergas häst, trofast och pålitlig, som Emil ofta rider på i Katthult.
  • Flicka – Madickens häst som hon och Lisabet gärna leker med.
  • Sorken – Hästen i Rasmus på luffen, som tillhör luffaren Oskar.
  • Polle – I Lotta på Bråkmakargatans värld finns en trähäst vid namn Polle, som är mer leksak än riktig häst.
  • Guldman – Hästen i Mio, min Mio, Astrid Lindgrens fantasyberättelse. Han är vit med en gyllene man och har magiska egenskaper.
  • Tornros – Den stolta hästen i Bröderna Lejonhjärta som tillhör Jonatan.
  • Blesa – Den envisa hästen i Alla vi barn i Bullerbyn, som barnen ibland försöker rida på.
  • Månprinsen – En vacker häst från Ronja Rövardotter, även om hästar inte spelar lika stor roll i denna berättelse.
 
Det blir lite problematiskt att koppla ihop intelligens med att vara sanningsenlig, det är ju egentligen inte alls samma sak. Human intelligens används verkligen inte alltid för att hålla sig objektivt korrekt, så varför finns den förväntan på artificiell intelligens?
Artificiell intelligens är en maskin och intelligensen är ett mått på hur mycket den klarar funktionsmässigt utifrån användarens perspektiv, maskinen som sådan har ingen egennytta som en människa har.
 
Senast ändrad:

Liknande trådar

Äldre Säkert en gammal text iom att 50-öringar finns omnämnt- men ack så aktuell.... "En dag i staden. Jag är sugen på kaffe kände jag en...
Svar
3
· Visningar
1 514
Senast: Mia_R
·
  • Låst
Relationer Detta är rena spekulationer dock. Personen själv är fast och fullt medveten om att det svänger REJÄLT i humör och känslor, och tror sig...
Svar
3
· Visningar
6 361
Senast: Hedinn
·
Bukefalos Här kommer en lång rad med förslag till förbättringar och rättningar som jag samlat på mig undet mitt surfande här de senaste dagarna...
Svar
9
· Visningar
1 426
Senast: Gunnar
·

Bukefalos, Hästnyheter, Radannonser

Allmänt, Barn, Dagbok

Hund, Katt, Andra Djur

Hästrelaterat

Omröstningar

Tillbaka
Upp