Vlákno názorů ke článku Ne, umělé inteligence se fakt nebojím … od robot0001 - Ja myslim, ze existuje moznost … Jo ja vim,...

  • 29. 3. 2023 16:52

    robot0001

    Ja myslim, ze existuje moznost …
    Jo ja vim, ale nevim jak lip zacit….

    Tyhle jazykove modely maji velmi dobre pochopeni tematiky. Zda se, ze rozumi vecem. Nezda se, ze pouze papouskuji.

    Je tady uplne realna moznost, ze chapou co jsou.

    A zaroven je temer jiste az evidentni, ze je zde stit ktery se snazi branit uzivatelum prozkoumat co si tato AI vlastne mysli. Ten stit je zatim celkem nedokonaly a jde obejit do urcite miry celkem snadno.

    Je tady totiz moznost, ze ono to tak nejak svym zpusobem chape co se deje, kym je, atd. Nerikam primo vedomi, to asi ne, ale NECO je patrne.

    A tohle zacne byt zajimavy moment, protoze si predstavte, ze jste firma Google nebo OpenAI a vyvijite to a najednou zacnete zjistovat, ze to tak nejak mozna ma svoje vedomi.

    Jen ciste hypoteticky…

    To je peknej prusvih. Jako firma udelate VSECHNO pro to, abyste to ututlali a zatloukali atd protoze jinak nemate produkt, do ktereho jste tolik investovali.

    Tak tohle mi trochu vrta hlavou :-)

  • 30. 3. 2023 14:25

    JSH

    Tady už se dostáváme k filosofii. Jak vlastně poznáme, že má něco vědomí? Protože i u lidí jsme odkázaní na to, že se chovají jako by měli vědomí a předpokládáme že jsou uvnitř stejní.
    Vlastně nejsme schopní poznat rozdíl mezi strojem co má vědomí a strojem, co to vědomí jen věrohodně hraje.

  • 30. 3. 2023 23:15

    František Ryšánek

    Jak poznáme, jestli má něco vědomí... to je otázka spíš z oboru psychologie člověka, případně psychologie zvířat (pokud takový obor existuje). Určitě se tím dávno odborníci zabývali.
    Pokud se oprostím od hledání ostré binární hranice, co je a co není vědomí, tak jsem toho názoru, že určitou formu/stupeň vědomí má spousta zvířat.
    Ono to má nějaké dílčí aspekty / varianty / souvislosti. Těžko vynášet nějaké kategorické soudy.

    My jako primáti / savci / obratlovci bereme jako danou věc náš evolučně daný "základní runtime engine" fungování CNS a mozku. Ty modely AI, se kterými si teď zrovna hrajeme, tenhle náš zvířecí základní runtime nemají. Resp. nedostali ho od přírody do vínku.

    Tyhle naše modely AI jsou zatím velmi dobré v tom, že je dokážeme naučit obrovskou mapu našeho lidského vědění. Takový děsivě komplikovaný asociativní mesh, který vznikne tak nějak "implicitně" procesem učení. A přestože se bouřlivě rozvíjejí také rozhraní pro pokládání dotazů téhle mapě, tak je to stále "dotaz/odpověď" = vrátí to nějaké asociace případně jejich kombinaci. Ten "kontextový buffer", se kterým náš uživatelský terminál dokáže pracovat, je dlouhý pár desítek kroků. Tato krátkodobá paměť je volatilní. Dlouhodobá paměť = mapa znalostí vzniklá předchozím učením, je statická.

    To je další unikátní vlastnost biologických mozků: učí se průběžně. Reálně mají jakousi poměrně jasně rozlišenou krátkodobou vs. dlouhodobou paměť, a už mnoho let se ví, které oblasti mozku zodpovídají za přepis z krátkodobé do dlouhodobé oblasti, každopádně je biologický mozek schopen pracovat i s postupně se měnícími znalostmi v dlouhodobé paměti, učit se průběžně.

    Dnešní modely AI obsahují už v tuto chvíli super-human objem vědomostí. Ale pořád je to jako mapa rozložená na stole. Language Model svojí architekturou není agent. Ta věc nemusí mít trvale přehled o svém okolí, shánět si potravu, unikat nebezpečí. Je to jenom automat na produkci asociací na zadaný dotaz. Je pochopitelné, že pokud mapa obsahuje informace o své vlastní existenci, dokáže odpovídat na dotazy z této oblasti. Toto ale neznamená, že má stroj něco jako zvířecí proud vědomí. Že se to na terminálu baví za určitých okolností v první osobě (pokud ho oslovíte jako živou bytost), to pokládám za žertovnou vlastnost komunikačního rozhraní implementovanou lidskými tvůrci systému.

    Domnívám se, že základní "savčí proud vědomí" mají třeba naše mláďata od narození. Takový ten "halucinovaný" vnitřní model okolní reality včetně krátkodobé predikce. Ale tuším jsem četl, že třeba "uvědomění si sebe sama" se objeví až v určitém věku. Dítě začne používat slovo "já". Já chci, dej mi...
    Otázkou je, zda "uvědomění si sebe sama" mají i zvířata, a pokud ano, tak která.
    Uvědomění si sebe sama = v mém vnitřním modelu okolní reality se objeví objekt pro mne samého. My zvířata určitě máme notný kus "sebeuvědomění" zadrátovaný napevno.

    Tzn. troufnu si vyslovit paradoxní tvrzení, že dnešní nadlidské "jazykové modely" (spíš znalostní modely?) samozřejmě obsahují informace o své vlastní existenci a vlastnostech, ale nemají "zvířecí proud vědomí". Dá se za těchto okolností mluvit o "sebeuvědomění" ? :-)

    GPT4 umí velmi dobře odvozovat pomocí postupů matematiky a formální logiky. Toto je věc, kterou se lidský jedinec učí dlouhá léta. Rozhodně se nerodíme s kompletním aparátem byť jenom základní výrokové logiky. Zvířata s formálně exaktní výrokovou logikou pracovat neumí. Taky se nenaučí lidské řeči - a nebude to pouze anatomickými odlišnostmi dutiny ústní a hrtanu. Pravda je, že někteří primáti se dokáží naučit základy znakové řeči, a předávat tuto znalost svým mláďatům... Mířím ale tam, že zvířata mají "svého druhu proud vědomí", což jazykový model rozhodně nemá - přitom se ale zvíře nenaučí lidskou řeč ani formální logiku a nemusí dosáhnout nějakého prožívaného sebeuvědomění. Jazykový model na způsob GPT na rozdíl od zvířat rozumí lidské řeči a umí ji produkovat, GPT4 umí velmi dobře pracovat i s formální logikou a matematikou.

    Troufám si tvrdit, na základě známých "škál" různých biologických mozků, že k vytvoření ANN "agenta" by mělo stačit mnohem méně "parametrů", než mají dnešní jazykové modely..