Citat:
Det är är självklart att mönsterigenkänning är en viktig del av människans funktion. Jag ser inte vad det har med saken att göra dock.
Men en stor majoritet av det man ser på internet när folk påstår den klarar "IQ tester" och allt möjligt är att de använder kända problem som det finns kända lösningar på som naturligtvis funnits i träningsdatan för modellen.
Sedan finns det också exempel där som den inte kan lösa som lurar "mönsterigenkänningen", tex det kända Monty Hall problemet finns i mängder av varianter med små modifikationer som totalt förändrar utkomsten av problemet, GPT-4 identifierar problemet och repeterar exakt samma lösning som Marilyn vos Savant skrev i sin kolumn, vilket enbart är korrekt i original utförandet av problemet.
Men det jag försöker peta runt och hitta bevis på är inte hur vida GPT-4 är intelligent eller medvetet eller dyl, det har framgått sedan länge att den snabbt trasslar in sig i resonemang och har svårt att lösa originella problem man hittar på för den, dvs om den aldrig stött på problemet förut så är det enormt osannolikt att den framgångsrikt löser det.
Utan i stället är mitt mål att försöka hitta otvedtydliga tecken på att uppbyggnaden inte är som man tror, jag menar med de exempel jag demonstrerade ovan att jag har svårt att se hur GPT-4 kan producera sådant utan att ha någon form av lookahead buffer (alternativt att flera parallella modeller genererar tokensekvenser, snarlikt hur Google Bard gör), jag köper inte påståendet om statistisk konvergens eftersom modellens vikter är fixerade och det man ber om skiftar sannolikheten för en viss token sekvens (inte ens enskild token) markant och som jag redan argumenterat redan innan den genererat token sekvensen, det är bara inte rimligt och GPT-3 kan som sagt inte göra det som bygger på exakt samma arkitektur, jag tror inte ett skit på att en sådan mycket djupare kontext förståelse för ord som "ersätt" skulle framträda bara man matar den med mer irrelevant data, GPT-3 borde ha sett ordet i samma sammanhang minst lika mycket, arkitekturen ska vara samma (men det är ju just det som är problemet att OpenAI är allt annat än transparenta angående detta och varför är dom inte det? Vad skulle det spelar för roll om de berättade att modellen har 100 miljarder parametrar och är en modell, ingen skulle få ut någon som helst information om detta och företag som Meta osv som redan håller på att tugga på med sina egna modeller kör vidare på samma spår. Så vad är då anledningen? Jag tror den är så enkel att GPT-4 är ett fuskbygge som kombinerar flera tekniker och man gjort detta för att man inte kan skala tekniken ytterligare- att nämna detta publikt skulle få finansierer att dra öronen åt sig oavsett hur bra produkten fungerar, alla sitter ju och väntar på GPT-4.5 och GPT-5 osv nu som ska revolutionera världen och flera av talespersonerna har i stort sett lovat att det bara handlar om att skala upp modellerna så inträder magi).
Så nej jag har inte blivit religös och börjat se GPT-4 som en livsform eller något sådant.
Men en stor majoritet av det man ser på internet när folk påstår den klarar "IQ tester" och allt möjligt är att de använder kända problem som det finns kända lösningar på som naturligtvis funnits i träningsdatan för modellen.
Sedan finns det också exempel där som den inte kan lösa som lurar "mönsterigenkänningen", tex det kända Monty Hall problemet finns i mängder av varianter med små modifikationer som totalt förändrar utkomsten av problemet, GPT-4 identifierar problemet och repeterar exakt samma lösning som Marilyn vos Savant skrev i sin kolumn, vilket enbart är korrekt i original utförandet av problemet.
Men det jag försöker peta runt och hitta bevis på är inte hur vida GPT-4 är intelligent eller medvetet eller dyl, det har framgått sedan länge att den snabbt trasslar in sig i resonemang och har svårt att lösa originella problem man hittar på för den, dvs om den aldrig stött på problemet förut så är det enormt osannolikt att den framgångsrikt löser det.
Utan i stället är mitt mål att försöka hitta otvedtydliga tecken på att uppbyggnaden inte är som man tror, jag menar med de exempel jag demonstrerade ovan att jag har svårt att se hur GPT-4 kan producera sådant utan att ha någon form av lookahead buffer (alternativt att flera parallella modeller genererar tokensekvenser, snarlikt hur Google Bard gör), jag köper inte påståendet om statistisk konvergens eftersom modellens vikter är fixerade och det man ber om skiftar sannolikheten för en viss token sekvens (inte ens enskild token) markant och som jag redan argumenterat redan innan den genererat token sekvensen, det är bara inte rimligt och GPT-3 kan som sagt inte göra det som bygger på exakt samma arkitektur, jag tror inte ett skit på att en sådan mycket djupare kontext förståelse för ord som "ersätt" skulle framträda bara man matar den med mer irrelevant data, GPT-3 borde ha sett ordet i samma sammanhang minst lika mycket, arkitekturen ska vara samma (men det är ju just det som är problemet att OpenAI är allt annat än transparenta angående detta och varför är dom inte det? Vad skulle det spelar för roll om de berättade att modellen har 100 miljarder parametrar och är en modell, ingen skulle få ut någon som helst information om detta och företag som Meta osv som redan håller på att tugga på med sina egna modeller kör vidare på samma spår. Så vad är då anledningen? Jag tror den är så enkel att GPT-4 är ett fuskbygge som kombinerar flera tekniker och man gjort detta för att man inte kan skala tekniken ytterligare- att nämna detta publikt skulle få finansierer att dra öronen åt sig oavsett hur bra produkten fungerar, alla sitter ju och väntar på GPT-4.5 och GPT-5 osv nu som ska revolutionera världen och flera av talespersonerna har i stort sett lovat att det bara handlar om att skala upp modellerna så inträder magi).
Så nej jag har inte blivit religös och börjat se GPT-4 som en livsform eller något sådant.
Jag tror heller inte att du gått och blivit religös. Men det är först nu som du pekar på saker med GPT-4 som du inte greppar fullt ut.