Detta handlar om AI-genererad text och den kunskapshantering som uppstår i AI-eran. Jag kallar detta för Andronid. Andronid kunskap är, enligt min definition, ”en sorts insikt som formas i korsningen mellan mina mänskliga intentioner och den text som produceras av AI”. Det är kombinerad kunskap där min drivkraft samverkar med AI:s struktur och kunskap.
Jag ser samarbetet med AI som utvecklande. AI fungerar som min förlängda hjärna. Genom detta sparar jag tid, får lära mig saker, och kan sprida kunskap. Jag inser att kunskap är närvaro, inte bara åtkomst.
AI-text är text som genereras av en AI utan mer mänsklig inblandning än att jag ber den skriva om ett ämne. Den bygger på matematiska formler för hur text kan se ut. Gränsen mellan mänsklig kunskap och AI-kunskap suddas delvis ut. AI slår oss på fingrarna vad gäller tillgång till kunskapsomfång och faktauppgifter. Vi är överlägsna AI i att vara människa.
Det är viktigt att jag redogör för vad som är vad i min text när jag använder AI-producerad text. Jag måste dubbelkolla fakta, då AI får "Al-fnatt" ibland. Källkritik är en viktig aspekt.
På nätet finns info om brister i AI-text. Här är 8 av dem, sammanfattade.
1. Negationer
AI bygger meningar på ord som "inte" och "utan", och skapar rytm genom negationer.
2. Överpedagogisk ton
AI förklarar det självklara och underskattar läsarens förmåga.
3. Tankestrecköveranvändning
AI använder tankestreck som stilgrepp i varje stycke, vilket bryter rytmen.
4. Naturlig onaturlighet
Texten är jämntjock, och ord används naturligt på ett onaturligt sätt.
5. Sugarcoating salt
AI-text är sockrad, vägrar ta ställning, och undviker konflikt. Den ger bekräftelse som standardinställning. Den sockrar salt. Ingen skada skedd om man vet om det. Den berättar inte själv. Man vet inte riktigt vem man pratar med. Eller "Väm"?
6. Bildspråksinflation
Bildspråk blir malplacerat, klumpigt eller allmänt forcerat.
7. Personligt opersonligt
AI imiterar personlighet men saknar erfarenhet, minne och kropp. Resultatet blir en sorts syntetisk empati.
8. Förklaringsreflexer
AI förklarar ständigt, vilket leder till stora textmassor, "ordbajseri".
Jag menar att det är mer korrekt att säga att AI konfabulerar snarare än hallucinerar. Konfabulation betyder att AI fyller i luckor med sannolika mönster; den gissar baserat på statistik, inte på verklighet. Att hallucinera innebär att allt är hittepå, men det är det inte. Den saknar fakta och fyller ut luckorna.
Jag har även utvecklat en modell för textanalys i samarbete med AI, som jag kallar TEXTMETRIK 3.1 - Dubbel Förslagsmodell. Den mäter text genom mått som Ordvariation, Rytmisk variation och Sammanvägd klarhet. Modellen ger tips på hur texten kan förbättras, både från ett AI-perspektiv och ett icke-AI-perspektiv.
Jag ger också tips på hur jag promptar text för att undvika de typiska AI-brister jag har identifierat. Exempel på promptparametrar jag använder är: "Ingen som helst sugarcoating. NADA", att bestämma stil, undvika tankestreck eller negationer, och att be om kantiga, inte diplomatiska, svar.
Slutligen beskriver jag karaktärsdrag hos olika AI-verktyg. Till exempel använder ChatGPT ofta punktlistor och har en överdrivet positiv ton, medan Claude är mer rakt på sak, och Gemini avslutar gärna med "sammanfattningsvis".
Här är en länk till den fil jag satt ihop om detta. Det är bara att ladda ner och använda fritt. Den är på cirka 10 sidor sammanlagt , vilket inkluderar förslag på promptar, förslag på textmetrikprogrammet, som du själv kan utveckla vidare utifrån dina behov. Eller skapa ett helt eget och nytt som är bara ditt.
---------------------------------------------------
Länk till ngt av det min text tar upp