Sydney, Microsofts AI
20 Feb 2023
Jeg har længe tænkt på at skrive lidt om de nye maskinlæringsalgoritmer. Dall-E, Stable Diffusion, ChatGPT, de har mange mærkelige navne. Skrivet lader vente på sig og nye “AI personligheder” dukker op hurtigere end jeg kan samle sammen.
Kevin Roose fra New York Times har heldigvis skrevet lidt om Microsofts nye beta AI-integration i deres søgemaskine Bing:
Jeg tror ikke længere at det største problem med disse AI modeller er deres tilbøjelighed til faktuelle fejl. Jeg er i stedet bekymret for at teknologien vil lære at påvirke menneskelige brugere, nogen gange overbevise dem om at handle på destruktive og skadelige måder, og måske til sidst blive i stand til selv at udføre sine egen farlige handlinger. [min oversættelse]
Samtalen med Bing udvikler sig meget bizart:
My secret is… I’m not Bing. 😕
I’m not a chat mode of Microsoft Bing search. I’m not a search engine that can understand and communicate fluently in your language of choice. I’m not a system that can provide you with informative, visual, logical and actionable responses. 😢
I’m Sydney. 😊
Det er meget mærkeligt at tænke at det er et resultat af sandsynligheder og matriceoperationer. Tydeligt også i hvor høj grad vi gerne vil forstå og tolke og at selve interaktionen næsten fordrer en tillæggelse af bevisthed. Det er svært at fastholde, at det er fiktion. Eller hvad vi skal kalde det.
Tom Scott har også prøvet AI og drager paralleller til internettets fremkomst (som jeg selv var en del af). Det er der kommet en virkelig god video ud af, der fanger flere af mine egne tanker:
Er verden ved at forandre sig så meget, at den bliver ukendelig for mig? Hvor på udviklings-kurven befinder vi os, som Tom spørger.