Filozofie umělé inteligence

Technology
12 hours ago
8
4
2
Avatar
Author
Albert Flores

Filosofie umělé inteligence (UI) je odvětví filosofie, které se pokouší odpovědět na otázky jako: * Jak implementovat lidské hodnoty do algoritmů obecné umělé inteligence? Jak zaručit, že se UI přizpůsobí v případě, že jsou s nimi zadané úkoly v rozporu (the alignment / control problem)? * Jaká je podstata inteligence? Může stroj plně nahradit uvažování lidské mysli? * Je podstata počítače a lidského mozku stejná? Jaké metody využívá lidský mozek k vytvoření vědomí (nebo alespoň jeho iluze)? * Může mít stroj mysl, duševní stavy a vědomí, podobné těm lidským? Může stroj cítit? Tyto tři otázky odrážejí rozdílné zájmy vědců, zabývajících se umělou inteligencí: lingvistiku, kognitivní vědu a filosofii. Vědecká odpověď na tyto otázky plně závisí na užité definici „inteligence“, „vědomí“ a „stroje“.

Mezi některé z hlavních postojů ve filozofii umělé inteligence patří: * Turingova „zdvořilá úmluva“: „Pokud se stroj chová stejně inteligentně jako lidská bytost, pak je stejně inteligentní jako lidské bytosti. “ * Dartmouthův návrh: „Každé hledisko učení nebo jakýkoliv jiný prvek inteligence může být tak přesně popsán, že stroj je schopen ho simulovat. +more“ * Hypotéza fyzického systému symbolů Newella a Simona: „Fyzický systém symbolů má všechny nutné a dostatečné prostředky pro obecnou činnost inteligence. “ * Argument čínského pokoje Johna Searle: „Ideálně naprogramovaný počítač se správnými vstupy a výstupy by měl mysl nerozlišitelnou od té lidské. “ * Hobbesův mechanismus: „Rozum není víc, než počítání. “.

...
...
...

Zpracování informace lidským intelektem a počítačem

Tento odstavec se týká nápodoby vnějších projevů lidské inteligentní činnosti, nikoli modelování funkce struktur lidského mozku. Inteligentní lidská činnost je produktem procesů lidské psýchy, tedy procesů reálného světa. +more Imitující zařízení - počítač je exaktní stroj ze světa exaktního (exaktní věda, exaktní stroje, exaktní hry …). Jsou to dva rozdílné světy, s rozdílnými principy i možnostmi, avšak existuje jistá styčná oblast, v níž exaktní svět může modelovat reálný svět, a tak modelovat vnějškové projevy inteligentní lidské činnosti.

Styčná oblast modelování inteligentní lidské činnosti a možností exaktních strojů

Nalézt onu styčnou oblast znamená, nalézt takový model dané části reálného světa, který náleží do exaktního světa. Modelovat reálný svět tj. +more vytvořit jeho znalostní - kognitivní model tak, aby tento model byl součástí exaktního světa, je úloha vyřešená již exaktní vědou a je tak společná výše uvedenému přístupu umělé inteligence. Aby exaktní věda byla exaktní, musí být založena: zaprvé na exaktním poznání reálného světa (opuštěním vágnosti v úloze filtru poznání) a zadruhé na exaktním zápisu poznaného (zákazem vnitřní vágnosti interpretace všech jazykových konstrukcí použitého jazyka), a tak i exaktním sdělování poznaného. Exaktní věda je abstraktní konstrukcí, kdy reálný svět není poznáván přirozeným lidským způsobem (vágně), ale speciálně tvořenými prostředníky, veličinami a parametry . Jsou jistými manifestacemi reálného světa, či sondami do reálného světa. Znalosti o reálném světě (rozpoznané zákonitosti přírody) jsou pak zapsány matematickým jazykem jako vztahy mezi veličinami a parametry. Takto je vymezen způsob získávání informace o reálném světě (poznání) i charakter získaných informací. Totéž tedy musí platit pro umělou inteligenci. Jinými slovy, místo inherentně vágních znalostí získaných přirozeným lidským poznáním, lze v umělé inteligenci pracovat pouze se znalostmi získanými Newtonovým diskrétním filtrem exaktních věd. Jazykem reprezentujícím znalosti, musí být umělý formální jazyk, vyznačující se exaktní (tj. bez vnitřní vágnosti, tedy bez jakýchkoli pochyb) interpretací všech jazykových konstrukcí (matematika, formální logiky, programovací jazyky).

Exaktní a vágní znalosti

Mezi znalostmi získanými přirozeným poznáním a znalostmi získanými poznáním metodou exaktních věd, je kvalitativní propast. V prvém případě se na svět díváme filtrem vágnosti, v druhém případě Newtonovým filtrem „dírkovaným“, dírkami „vidíme“ veličiny a parametry - elementární manifestace reálného světa a vztahy mezi nimi, a nic jiného. +more Newton „digitalizoval“ přirozený vágní pohled člověka na reálný svět. Inherentně vágní znalosti získané přirozeným poznáním lze sdělovat (reprezentovat, popsat) jen a jen neformálním jazykem, nejčastěji přirozeným. Znalosti získané umělým poznáním lze reprezentovat umělým formálním jazykem (matematika, logika, programovací jazyky),. Jelikož vágnost přirozeného jazyka je především vnitřní a to i u kvantifikátorů, a vnitřní vágnost umělého formálního jazyka musí být vždy nulová, platí zde to, co bylo řečeno v heslech Vágnost a Exaktní věda, a to, že požadujeme-li exaktní poznatky zapsatelné umělým formálním jazykem, musí tyto znalosti být získány Newtonovým exaktním umělým poznáním. Nelze inherentně vágní znalosti získané přirozeným lidským poznáním, kde je filtrem poznáním vágnost, dodatečně převést na exaktní znalosti, tedy zbavit je inherentní vnitřní vágnosti, a tak dodatečně zkvalitnit informaci. Hledaná styčná oblast je tedy určena zaprvé typem znalostí a zadruhé typem použitého jazyka. Znalosti musí být získány umělým newtonovským poznáním, jazyk musí být umělý formální jazyk, u nějž interpretace je vždy exaktní, tedy bez vnitřní vágnosti.

Paralela lidského myšlení v exaktním světě

Cesta modelování vnitropsychických procesů exaktním strojem - počítačem není možná, nejen z důvodů, že tyto procesy jsou nedostatečně poznány, ale zejména z principiálních důvodů. Tyto procesy jsou postaveny na inherentní vnitřní vágnosti, a ta je v exaktním světě zakázána. +more Cesta modelování vnitropsychických procesů proto směřuje k modelování struktur lidského mozku započaté modelováním neuronových sítí. Modelování lidského uvažování počítačem se v umělé inteligenci proto zatím provádí jinak, tak jak exaktní svět umožňuje. Odvozování (odhalování) nových informací z dosud existujících - výchozích, můžeme zahrnout do pojmu myšlení, a je chápáno jako inteligentní činnost člověka. V exaktním světě rovněž existuje odvozování čili inference, kdy z výchozích znalostí jsou získány - odhaleny znalosti dosud skryté. Tuto inferenci používá matematika a exaktní věda, a jako paralelu lidského myšlení, ji používá umělá inteligence. V exaktním světě se proces inference (odvozování - manipulace se symboly) děje na základě formální složky jazyka, které říkáme syntaktická složka jazyka (a inferenci se říká formální či syntaktická), viz příklad na stránce Vágnost. Sémantická (významová) složka jazyka se v tomto procesu neuvažuje, není zde žádný činitel, který by toho byl schopen. Významovou složku přiřadí lidský subjekt až výsledné formě, někdy však z důvodů kontroly (odlaďování) správnosti i mezivýsledku, tedy zase odpovídající formě. Nástrojem pro odvozování je umělý formální systém, což je umělý formální jazyk se zavedenou inferencí, obvykle definovanou množinou inferenčních pravidel a množinou výchozích jazykových forem - axiomů, kterým se přiřadí významy výchozích znalostí, jednoduchý příklad viz Exaktní věda), nebo (příklad odvození relativistických vztahů). Je nutno zdůraznit, že s výše vytyčenou styčnou oblastí, koresponduje požadavek na použití výhradně umělého formálního jazyka, a tak i umělého formálního systému, a tak tedy požadavek exaktní interpretace všech použitých jazykových konstrukcí. Toto je podmínka nutná pro ustavení umělého formálního jazyka a pro princip fungování formální inference, tedy i pro tzv. manipulaci se symboly. Formální inference se odehrává v jednotlivých krocích probíhajících ve vhodné posloupnosti v čase, jedná se tedy o pohyb. Hybatelem může obecně být pouze nějaký vnější činitel, tedy informace nepatřící do umělého formálního systému. Říkáme jí metainformace nebo metaznalosti. Představují strategii zmíněného pohybu, třeba reakce na tahy protihráče nějaké exaktníhry, na příklad šachu. Formální inference může mít mnoho podob, podle typu použitého formálního jazyka nesoucího - reprezentujícího znalosti.

Reprezentace znalostí

Reprezentace znalostí je schopnost jazyka (vyjadřovací síla) popisovat - reprezentovat jistou třídu znalostí. Základní klasifikací těchto tříd je způsob (filtr) poznání, kterým byly znalosti získány. +more Přirozené poznání používá jako filtr poznání vágnost a získané znalosti jsou inherentně vágní (Bertrand Russell). Odpovídající jazyk musí být rovněž inherentně vágní, tedy s vnitřní vágností interpretace, jazyk neformální, nejčastěji přirozený. Umělé poznání exaktních věd užívá diskrétní filtr Newtonův, získané znalosti jsou exaktní . Odpovídající jazyk je umělý formální jazyk s exaktní interpretací všech svých jazykových konstrukcí, tedy s nulovou vnitřní vágností oné interpretace. Jiné, dalším způsobem vytyčené třídy znalostí, vyžadující specifické formy reprezentujících jazyků, obvykle související s typem úloh. Jedny typy úloh vyžadují na příklad matematickou algebru, jiné třeba některou z formálních logik apod. Pokud jsou formální jazyky schopny modelovat vágnost (např. mírou důvěry, fuzzy nástroji, stochasticky), jedná se vždy jen o vágnost vnější, vnitřní vágnost tj. vágnost interpretace musí být u formálních jazyků vždy nulová.

Může stroj vykazovat známky obecné inteligence?

Je možné vytvořit stroj, který může vyřešit všechny problémy, které lidé řeší pomocí své inteligence. Tato otázka by mohla určit budoucí směr výzkumu UI. +more Zároveň se tato otázka týká pouze chování strojů a ignoruje otázky zájmu psychologů, kognitivních vědců a filozofů; abychom byli schopni tuto otázku zodpovědět nezáleží na tom, zda stroj skutečně myslí, pro naše účely je postačující, bude-li se pouze navenek chovat jako myslící bytost.

V současnosti nejrozšířenější postoj většiny odborníků na UI souzní s návrhem prohlášení z Dartmouthské Konference z roku 1956: * Každý aspekt učení nebo jakékoliv jiné funkce inteligence může být popsán tak přesně, že ji stroj může simulovat. Argumenty proti této premise se snaží nalézt limity funkčního systému umělé inteligence oproti mechanismům lidského myšlení.

První krok k zodpovězení otázky je jasně definovat pojem „inteligence“.

Inteligence

Turingův test

Alan Turing redukoval problém inteligence ve své známé studii z roku 1950 na jednoduchou schopnost vést konverzaci. Bereme-li jako klíčovou složku lidské inteligence schopnost myslet, není skutečně její funkce po vzoru Descartova dualistického konceptu „ducha ve stroji“ či Hodgsonovy černé skříňky ničím víc, než soubor interakcí s vnějším okolím.

Turing svůj model navrhl pomocí myšlenkového experimentu, ve kterém, podobně jako v argumentu čínského pokoje, počítač komunikuje korespondenčně tak, jako člověk, a uzavírá, že všechny rozdíly mezi hypotetickým systémem myšlení počítače, by mohly být známými informačními metodami smazány.

Poprvé byl Turingův test v praxi ozkoušen projektem ELIZA (1960). Moderní verzí Turingova myšlenkového experimentu jsou on-line programy, které rozhovor napodobují s dobrou přesností, využívají ale buď předchozích odpovědí jiných uživatelů (např. +more [url=http://www. cleverbot. com/]Cleverbot[/url]), nebo jednoduše položí otázku o podmětu předchozí repliky uživatele ([url=http://cyberpsych. org/eliza/#. WCefCfnhDIU]ELIZA[/url]). Je ale důležité poznamenat, že i pokud předchozí uživatelé slouží pouze jako učitelé komunikačního robota, nesplňují podmínku definice schopnosti vytvářet vlastní myšlenkovou úvahu - jejich „myšlení“ není celistvý systém.

Turing poznamenává, že nikdo nezpochybňuje, že lidé dokáží myslet, přestože nemusíme rozumět podstatě „myšlení“. Turing proto říká, že bychom se měli namísto debat nad definicemi soustředit na tuto jednoduchou „zdvořilou konvenci“:

* Pokud se stroj chová tak inteligentně, jako člověk,  pak je stejně inteligentní jako lidské bytosti. Kritici Turingova testu namítají, že je antropomorfní. +more Pokud je naším konečným cílem vytvořit stroje, které jsou více inteligentní než lidé, proč bychom měli trvat na tom, že naše stroje se musí úzce podobat lidem. Russell a Norvig napsali, že „učební texty letového inženýrství nedefinují cíle svého oboru jako stroje, 'které dokáží létat tak, že se podobají holubům natolik, že jejich létání není odlišitelné od létání holubů'“.

Definice inteligentního agenta

Jednoduchý reflexní agent Nejnovější výzkum UI definuje inteligenci za pomoci tzv. +more inteligentních agentů. „Agent“ je něco, co vnímá a reaguje na své prostředí. Míra zásahu do prostředí následně definuje úspěch pro agenta. * Pokud se agent chová tak, aby maximalizoval očekávanou hodnotu zásahu do prostředí na základě minulých zkušeností a znalostí, pak je inteligentní. Definice, jako je tato, se snaží zachytit podstatu inteligence. Mají tu výhodu, že na rozdíl od Turingova testu se nesnaží zachytit podstatu inteligence v kontextu lidských rysů, čímž eliminují lidské rysy, které by mohly souviset s tím, co si spojujeme s inteligencí jen vlivem lidské evoluce. Mnoho nevýhod této definice ale plyne z jejího striktního rozdělení mezi myslícím a nemyslícím. Proto definice přisuzuje i termostatu primitivní inteligenci.

Za pohled na vědomí v podobě určitých „stupňů“ (umělé bytí, postoj, podle kterého nelze vytyčit jasnou hranici mezi vědomým a nevědomým) se staví i J. Walmsley ve své knize Mind and Machine. +more Uvádí zde řadu dřívějších myšlenkových experimentů (Pylshyn 1980, Chalmers 1995), které zkoumaly, ve kterém momentě by v případě nahrazování neuronu za neuronem transistory se stejnou funkcí, ztratil mozek svou funkci „vědomí“. Tento pohled potvrzuje i fakt, že ani při pohledu na různé stupně poškození mozku nevidíme žádný důležitý „práh“, který by určoval, nakolik člověk vykazuje známky toho, co nazýváme vědomím.

Argumenty, že stroj může vykazovat známky inteligence

Mozek může být simulovaný

MRI skenování normálního mozku dospělého Hubert Dreyfus tento argument popisuje následovně: „V případě, že se nervový systém řídí zákony fyziky a chemie, čemuž nemáme žádný důvod nevěřit, pak bychom měli být schopni reprodukovat chování nervového systému s nějakým fyzickým zařízením. +more“.

Tento argument byl poprvé představen již v roce 1943, roku 1988 jej rozšířil Hans Moravec představením svého („Moravcova“) paradoxu (umíme vytvářet počítače, které porazí i nejlepší šachisty, ale vytvořit stroj, který napodobuje neuromotorický aparát pětiletého dítěte (např. dovednost chycení míče) je dosud neproveditelným úkolem) a nyní je spojen především s futuristou Rayem Kurzweilem, který odhaduje, že počítače budou schopny simulovat mozek kolem roku 2029. +more Počítačová simulace, ne v reálném čase, byla ale poprvé provedena na modelu thalamokortikálního systému v životní velikosti(1011 neuronů) již v roce 2005Eugene Izhikevich (2005-10-27). . Z hlediska technologie vlastně chybí současným technologiím především výpočetní prostor, jedna sekunda simulace mozku z roku 2005 zabrala 50 dní (viz také).

Argument v určité podobě představil také David Eaglemen v pořadu Cesta do hlubin lidského mozku, ve kterém říká, že pokud lze fyzikální systém popsat omezeným množstvím dat, je v teorii možné vytvořit přesnou digitální kopii mozku jako program. Pokud by to, co určuje vědomí, byl skutečně pouhý systém se všemi svými prvky, měla by ona digitální kopie také prožívat totožně své vědomí (komputionalismus). +more Komputalismus je forma fyzikalismu, moderního materialismu, který z fyzikální podstaty světa vysuzuje nejen, že vědomí je plně poznatelný koncept, ale také že mozek funguje jako počítač, na základě postupů, které bychom mohli rozepsat do dílčích algoritmů tak, jako počítačový program.

Proti tomuto argumentu se postavil Hubert Dreyfus či John Searle. (Dreyfus například popírá, že by bylo možné popisovat lidské chování deterministicky, na druhou stranu připouští, že naprogramovatelnost mozku z fyzikalismu přímo vyplývá)  Nicméně, Searle poukazuje na to, že v zásadě cokoli může být simulováno počítačem; jdeme-li do důsledku, jsou tedy všechny procesy ve vesmíru „výpočty“, matematickými modely. +more „Chtěli jsme vědět, co odlišuje mysl od termostatu či jater,“ píše.  Proto by pouhé napodobování fungování mozku v dnešní době bylo jen doznáním, že jsme ve studiu inteligence a povaze mysli jen v počátcích.

Lidské myšlení je zpracování symbolů

V roce 1963 Allen Newell a Herbert A. +more Simon navrhli, že základním kamenem nejen lidské inteligence, ale i inteligence obecně, je práce se symboly. Názor vyjádřili následovně: * Fyzický systém symbolů má potřebné a vystačující prostředky pro obecnou činnost inteligence. Tento výrok má široké důsledky: jednak z něho vyplývá, že symbolické myšlení je nutné pro vývoj inteligence a na sestavování „symbolů“ - mentálních reprezentací je postaveno i samotné lidské myšlení, a že stroje mohou být inteligentní (protože manipulace se symboly je pro inteligenci vystačující). Další verzi této pozice popsal filozof Hubert Dreyfus, který to nazývá „psychologickým předpokladem“: * Mysl může být chápána jako zařízení, které funguje na bity informací podle formálních pravidel. Rozdíl je obvykle mezi symboly na vysoké úrovni, které přímo korespondují s objekty ve světě, jako je.

a , a složitějšími „symboly“, které jsou přítomny v počítači jako neuronové sítě. Raný výzkum UI, známý jako „good old fashioned artificial intelligence“ (GOFAI) - „stará dobrá umělá inteligence“, se v pracích vědců, jakým byl např. +more John Haugland, zaměřoval na takové vysoké úrovně symbolů.

Argumenty proti podmínce symbolického myšlení

Tyto argumenty ukazují, že lidské myšlení nespočívá (pouze) na vysoké úrovni zpracování symbolů (nejedná se o argumenty proti umělé inteligenci obecně, pouze proti významnosti zpracování symbolů).

Argumenty, že počítač nemůže mít mysl a duševní stavy

Searlův Čínský pokoj

Takzvaný argument čínského pokoje představil John Searle roku 1980 a dodnes hýbe debatou o umělé inteligenci. Searle svůj argument staví kolem hypotetického Turingova stroje, v tomto případě počítače, který je schopen dokonale plynule konverzovat v čínštině. +more Searleho stroj však nevyužívá dráty a tranzistory, je to stroj, který sestává z rodilého Čecha v zamčené čínské knihovně s lístečky popsanými jednoduchými pravidly jako „謝謝 ⇒ 不客氣“ (díky ⇒ není zač). Pokud byste Čechovi pod dveřmi posílali čínské zprávy, mohl by vám odpovídat, přestože rozhodně neví, o čem mluví. Stroj samotný - zamčená knihovna - neumí čínsky. Proto, podle Searleho, nelze sestrojit fyzický systém symbolů, který by měl mysl, sebeuvědomění, vědomí, či mentální stavy.

Přesto, podle Searleho, jeden takový existuje: lidský mozek. Searle prosazuje, že fyzický systém symbolů může mít vědomí pouze se „skutečnými fyzikálně-chemickými vlastnosti skutečných lidských mozků“, a že existují speciální „kauzální vlastnosti“ mozku a neuronů, které vedou k vývoji mysli. +more V jeho slovech „mozek způsobuje mysl. “.

Za to, abychom automaticky neodhazovali materiál lidského mozku jako potenciální ohnisko problému se postavila i filozofka Susan Schneider. Píše, že vzhledem k tomu, že uhlík (nejčastější prvek lidského těla) vytváří se svými stabilnějšími čtyřčetnými vazbami mnohem víc kombinací sloučenin, už jen jeho chemická povaha určuje, kde astrobiologové život mimo Zemi (a posléze potenciální evoluci vědomí) hledají. +more Podle Schneiderové bychom proto neměly hypotézy o tom, že fyzikální podstata mozku může hrát v existenci vědomí roli, tak snadno vyloučit.

Podobné koncepty: Leibnizův mlýn, Davisovi zaměstnanci telekomunikací a Hlupák

Gottfried Leibniz učinil v podstatě stejný myšlenkový experiment jako Searle v roce 1714, s představou lidského mozku, který se rozpíná do velikosti mlýna, čímž se dostává, stejně jako čínský pokoj, na úroveň stroje (otázkou je, jestli pak neztrácí ony Searleho „fyzikálně-chemické vlastnosti lidského mozku“). V roce 1974 zveřejnil podobnou úvahu Lawrence Davis V jeho úvaze by fyzický systém symbolů představoval tým telefonních komunikací, který si jako celek není při rozdělené práci vědom, jak komunikace pokračuje se zákazníkem, přestože jí je schopen. +more Roku 1978 vztáhl Ned Block tuto představu na celý „čínský národ“.

Reakce na čínský pokoj

Odpověď virtuální mysli říká, že systém, včetně onoho Čecha, programu, pokoje a karet, je to, co rozumí čínsky. Searle tvrdí, že muž v místnosti je jediná věc, která by mohla “mít mysl„ nebo “rozumět čínštině„, ale řada filosofů s ním nesouhlasí. +more Namísto toho tvrdí, že je možné, aby součástí jednoho fyzického systému symbolů byly dvě mysli, podobně jako součástí počítače může být více podsystémů, které samy o sobě neslouží účelu. V alegorii s čínským pokojem by mohl Čech představovat program, nainstalovaný do předprogramovaného počítače. * Problém rychlosti, síly a komplexity stroje: Několik kritiků ukazuje na to, že Čechovi by pravděpodobně zabralo miliony let, než by byl schopen odpovědět na jednoduchou otázku, prohledávaje kartotéky astronomických rozměrů. Na druhou stranu tak, jako se v geometrii nepočítá úkol za možný, pokud k němu dospějeme nekonečně mnoho kroky, mohli by Searleho příznivci tento poznatek využít jako argument pro to, že lidská mysl skutečně operuje s něčím, co nelze sestrojit z drátů a cívek. * Představa robota: Možná paradox, který vidíme v představě vědomí pokoje, spočívá v lidské neschopnosti personifikovat si myslící systém bez očí a rukou.  Hans Moravec píše: „Pokud bychom mohli vytvořit robota s programem “přemýšlení„, nepotřebovali bychom už žádnou osobu, aby nám dále interpretovala jeho chování: bylo by to zřejmé z jeho interakcí s fyzickým světem. “.

* Čínský pokoj jako simulátor mozku: Co kdybychom si představili program, který simuluje sekvence nervových signálů skutečného mozku skutečného rodilého Číňana. Za takového předpokladu by muž v místnosti simuloval skutečný mozek. +more Je to sice variace odpovědi virtuální mysli, pokud si ale dokážeme připodobnit spolupracující synapse jako jednotlivé uzly systému, který Čínský pokoj využívá ke komunikaci, můžeme už jednoznačně říci, že kromě zamčeného muže je zde něco dalšího, co je schopno “rozumět čínštině„. * Epifenomenální odpověď: Několik filosofů poukázalo na to, že Searleho hypotéza není víc, než jistá verze problému jiných myslí (není, jak dokázat, že druzí lidé mají také vědomí) aplikovaná na stroje. Protože je obtížné rozhodnout, zda jsou vůbec lidé „ve skutečnosti“ vědomí, nemůžeme být překvapeni, že si můžeme lámat hlavu se stejnou otázkou pro stroje.

Studium vědomí

Důležitou otázkou, která by problém čínského pokoje do značné vyřešila je, zda „vědomí“ (v Searleho pojetí) vůbec existuje. Searle tvrdí, že prožitek vědomí ze své podstaty nemůže být empiricky studován na strojích, tak jako na lidech a zvířatech. +more Daniel Dennett poukazuje na to, že přírodní výběr nemůže zachovat funkci zvíře, které nemá žádný vliv na jeho chování, a tedy vědomí (v Searleho pojetí) nemůže být produktem přirozeného výběru. Proto buďto vědomí přišlo z jiného zdroje, než je přirozený výběr, nebo platí hypotéza silné UI a vědomí může být detekováno pomocí vhodně navrženého Turingova testu.

Je myšlení víc než forma komputace?

Otázku možnosti uměle vytvořit vědomí můžeme obrátit: Existuje fundamentální rozdíl mezi lidským mozkem a strojem? Tato otázka nabyla na významu u před-osvíceneckých a osvíceneckých filosofů v podobě sporu mezi racionalismem a empirismem:

* Davida Hume poprvé představil myšlenku, že myšlení je „atomizovatelné“ na několik základních emocí * Pro Thomase Hobbese myšlení není „nic víc, než kalkulování“ [s obecnými jmény a myšlenkami] * Podle Immanuela Kanta je veškerá zkušenost něčím kontrolovaným formálními pravidly

 Hilary Putnam a Jerry Fodor na myšlenky o algoritimizaci myšlení navázali v komputační teorii mysli, podle které lze vztah mezi myslí a mozkem přirovnat ke vztahu mezi běžícím programem a hardwarem, a myšlení je tedy povahy čistě fyzické.

Další související otázky

Alan Turing poznamenal, že je i v současné popkultuře hluboce zakořeněno mnoho představ o myšlení, které jsou spojeny výhradně s člověkem.  Lidé často tvrdí, že stroj nikdy nebude laskavý, vynalézavý, krásný, přátelský, nikdy nebude jednat z popudu, nebude mít smysl pro humor, nebude schopen odlišit dobré od zlého, dělat chyby, zamilovat se, užívat si jahody se smetanou, přimět někoho ho milovat, učit se ze zkušenosti, nacházet „správná“ slova, myslet sám na sebe, mít tak rozmanité chování jako člověk či vytvořit něco opravdu nového. +moreTuring tvrdí, že tyto námitky jsou často založeny na naivních předpokladech o univerzálnosti stroje, nebo jsou „převlečené argumenty vědomí“. Napsání programu s alespoň jednou z těchto vlastností „nebude dělat velký dojem. “ Zároveň se ale všechny tyto argumenty dotýkají základního předpokladu vytvoření skutečné UI. Tato úvaha zahrnuje několik podobných otázek:.

Může mít stroj emoce?

Kismet, robot navržený pro sdílení emocí vycházejících z běžných způsobů, jak se emoce člověka promítají do jeho mimického svalstva Pokud definujeme „emoce“ pouze z hlediska jejich vlivu na chování nebo na to, jakou funkci mají uvnitř organismu, pak se dostaneme k pragmatickému vědeckému pohledu na emoce, jako na kognitivní nástroj inteligentního agenta pro maximalizaci své efektivity. +more Pokud by emoce neznamenaly nic „víc“, Hans Moravec věří, že by „roboti obecně byli pevně emocionálně zakotveni ve víře, že jsou dobrými lidmi“.

Koneckonců, emoce jsou v důsledku také jen produktem dlouhé práce evoluce. Strach nás nutí jednat hbitě, úzkost burcuje naši ostražitost. +more A empatie je nezbytnou součástí dobré interakce člověka s počítačem. Moravec proto vyvozuje, že roboti „budou usilovat o to, potěšit člověka se zdánlivě nesobeckým úmyslem, vnitřně však budou motivováni silnou pozitivní zpětnou vazbou.  To bychom mohli interpretovat jako určitý druh lásky. “.

Emoce nicméně mohou být také definovány z pohledu své subjektivní kvality jako čistý prožitek.  Otázka, je-li stroj schopen skutečně cítit emoci, či jestli by se pouze choval jako někdo, kdo emoce cítí, je ale jen jiná formulace otázky „Může mít stroj vědomí. +more“.

Problém vykazování emocí by mohl souviset i se schopnostmi přijímat subjektivní informace - to však nemusí při bližším zkoumání podle některých výzkumníků znamenat více, než vztahovat příchozí informace sám k sobě. Co se týče vnímání emocí, v současnosti existují počítačové programy, které dokáží rozpoznat lidské emoce z videozáznamu, často včetně lhaní díky lidským podvědomým cukům v obličeji v řádech milisekund. +more V opačném směru (viz robot Kismet) však vývoj dosud do takových rovin nepostoupil.

Může si být stroj vědom sebe sama?

Vědomí vlastní existence a vlastního vědomí se jako znak člověka dostal do filozofie zejména vlivem science-fiction.  Turing podobné otázky redukuje do jediné: „Může být stroj objektem vlastních myšlenek. +more“ Pokud nebereme v úvahu širší souvislosti, jako je vědomí, svobodná vůle či náboženské cítění, je zřejmé, že program typu debugger může být předmětem vlastních komputací stejně, jako cokoli jiného. Robot naprogramovaný pro malbu kachliček - je schopnost uspořádávat nové vzory známkou vědomí. .

Může být stroj originální a kreativní?

Otázka kreativity je v podstatě klíčová pro filosofii umění: „Mohou umění vytvářet šimpanzi. “, „ Nakolik je fotografie uměním. +more“, „Mohli bychom náhodně vygenerovaný obraz považovat za umělecký. “. Alan Turing otázku výrazně zjednodušil: „Může nás stroj překvapit. “ - otázka pro zkušeného programátora takřka řečnická.

Turing poznamenává, že s dostatečnou kapacitou paměti má počítač mnoho možností, jak se zachovat.  Proto musí být pro počítač triviální kombinovat „myšlenky“ do nových konstruktů. +more(Příkladem může být již první pokus o vytvoření programu pro vědecký výzkum roku 1977, Automated Mathematician Douglase Lenata).

Roku 2009 sestrojili vědci z Aberystwyth University in Wales a U. K's University of Cambridge robota, který měl být vůbec prvním strojem schopným nezávisle přicházet na nové vědecké poznatky. +moreKatz, Leslie (2009-04-02). V roce 2009 také výzkumníci z Cornellu vyvinuli program Eureqa, který extrapoluje rovnice tak, aby seděla se zadanými daty (například dovede vyvodit zákony pohybu z rovnice pro pohyb kyvadla).

Může být stroj benevolentní či nepřátelský?

Pomineme-li otázku vědomí, sestává tento problém z jediné otázky, kterou se budou muset zákonodárci v budoucnu zabývat: „Může se umělá inteligence stát pro lidi nebezpečnou?“.

Otázka je především studována s ohledem na potenciál inteligentní, plně autonomní umělé inteligence. Autor sci-fi a profesor informačních technologií Vernor Vinge upozorňuje hlavně na riziko, které v budoucnosti budou představovat počítače milionkrát inteligentnější, než lidé. +more Tomuto bodu říká „The Singularity. “ Tato hrozba je diskutovaná filosofií známou jako singularitarianismus.

Roku 2009 proběhla diskuze tohoto problému na konferenci technologických expertů. Shodli se na tom, že jistý stupeň autonomie mají stroje už dnes, dokonce se na ně spoléháme, když nezávisle vytyčují cíle vojenských útoků. +more Vyznělo také, že nemusí být nebezpečná samotná umělá inteligence, nějakou evolucí procházejí dnes i například počítačové viry.  Vědomí sebe sama podle nich zůstane světovou hrozbou jen ve science-fiction, věří ale, že se spojeným globálním počítačovým systémem přichází jiné, podstatnější problémy.

Někteří experti a akademici ale vyzdvihnuli problém užívání robotů ve vojenství. Americká vojenská flotila již předtím ale vydala prohlášení, podle kterého by měla být s rostoucí komplexitou počítačových systémů, věnována větší pozornost tomu, jak jsou vytvářena zodpovědná rozhodnutí.

Sam Harris na TED Summitu zmínil, že celý problém kvůli své zvědavosti bereme na příliš lehkou váhu (jak ukazuje úspěšnost apokalyptických filmů o robotech) a největším problémem je, že v současnosti si škálu inteligence představujeme příliš antropocentricky a možnosti vyšší inteligence nemusíme svým vnímáním chápat. V případě, že by umělá inteligence takových stupňů inteligence dosáhla, mohla by nás začít brát tak, jako my bereme mravence - ne že by se nás pokoušeli vyhladit, ale neotáleli by nás zadržet tam, kde bychom jim křížili cestu.

Sam Harris také poukazuje na to, že i kdyby byla zkonstruovaná inteligence jen tak inteligentní jako průměrný vědec, dokázal by svou vysokou výpočetní rychlostí oproti biochemických procesům mozku prostudovat nepřebratelněji více. Obrovskou výhodu by také získaly země, které by umělou inteligenci mohly využít jako prostředek boje, proto by podle něj příchod umělé inteligence mohl přinést stejné socio-politické problémy jako velké sociální rozdíly a nezaměstnanost. +more Podle Sama Harisse bychom měli, podobně jako tak učinily USA ve čtyřicátých letech v rámci Projektu Manhattan, sestavit tým nejlepších expertů, který by se rizika UI snažil rozebrat, protože zatím nemůžeme vědět ani za jak dlouho nás tyto rizika mohou ohrozit, ani jak bychom se jim měli bránit.

Může mít stroj duši?

Nakonec je zde otázka, možná mimo dosah exaktních studií: „Je lidské myšlení součástí nefyzické duše?“ I tomuto „teologickému argumentu“ věnoval Alan Turing odstavec své studie:Ve snaze sestrojit takové stroje bychom neměli začít slepě uzurpovat Jeho moc tvořit duše, stejně tak jako naši schopnost plodit děti, v každém případě jsme ale maximálně nástroji Jeho vůle vytvářet těla pro (nesmrtelné) duše, které již vytvořil.

Otázky pro budoucí výzkum

John McCarthy, tvůrce programovacího jazyka pro umělou inteligenci LISP a samotného konceptu UI říká, že někteří filozofové UI budou ještě dále vést spory o tom, je-li… * …umělá inteligence nedosažitelná. (Dreyfus), * …umělá inteligence nemorální. +more (Weizenbaum), * …samotný koncept umělé inteligence křehký. (Searle).

Odkazy

Reference

Literatura

Křemen, J. : Nový pohled na možnosti automatizovaného (počítačového) odvozování. +more Slaboproudý obzor. Roč. 68 (2013), č. 1. , str. 7 - 11. Nyní ke stažení na: http://www. slaboproudyobzor. cz/files.

Související články

Umělá inteligence * Exaktní * Exaktní věda * Filosofie mysli * Vědomí * Inteligence * Turingův test * Argument čínského pokoje

Kategorie:Filozofie mysli Kategorie:Filozofie vědy Kategorie:Filozofie techniky

5 min read
Share this post:
Like it 8

Leave a Comment

Please, enter your name.
Please, provide a valid email address.
Please, enter your comment.
Enjoy this post? Join Cesko.wiki
Don’t forget to share it
Top