10 gėdingų klausimų apie neuroninius tinklus: mašininio mokymosi specialisto Igorio Kotenkovo atsakymai
įvairenybės / / August 08, 2023
Surinkome viską, ką norėjote sužinoti, bet buvote per drovūs paklausti.
Naujajame serija Žinomų ekspertų straipsniai atsako į klausimus, kuriuos dažniausiai gėda kelti: atrodo, kad visi apie tai jau žino, o klausiantis atrodys kvailas.
Šį kartą kalbėjomės su dirbtinio intelekto specialistu Igoriu Kotenkovu. Sužinosite, ar galite išsaugoti savo skaitmeninę kopiją savo proanūkiams, kodėl negalima 100% pasitikėti neuronais ir ar pasauliui gresia mašinų sukilimas.
Igoris Kotenkovas
1. Kaip veikia neuroniniai tinklai? Tai kažkokia magija. Kaip iš viso būtų galima sukurti „ChatGPT“? O Midjourney ar DALL-E?
Neuroninis tinklas yra matematinis modelis, sukurtas siekiant suprasti, kaip veikia gyvo organizmo smegenys. Tiesa, pagrindu buvo imtasi elementariausių XX amžiaus antrosios pusės pradžios idėjų, kurias dabar galima pavadinti neaktualiomis arba pernelyg supaprastintomis.
Net pavadinimas „neuroninis tinklas“ kilęs iš žodžio „neuronas“ – taip vadinamas vienas iš pagrindinių smegenų funkcinių vienetų. Patys neuroniniai tinklai susideda iš mazgų – dirbtinių neuronų. Taigi galima teigti, kad daugelis šiuolaikinės architektūros idėjų buvo „sužvalgytos“ iš pačios gamtos.
Bet dar svarbiau, kad neuroninis tinklas yra matematinis modelis. Ir kadangi tai yra kažkas, kas susiję su matematika, galime panaudoti visą matematinio aparato galią, kad išsiaiškintume ar įvertintume tokio modelio savybes. Neuroninį tinklą galite laikyti funkcija, o funkcija taip pat yra matematinis objektas. Paprasčiausias ir suprantamiausias pavyzdys: funkcija, kuri, tarkime, paima bet kokį skaičių kaip įvestį ir prideda prie jo 2: f (4) = 6, f (10) = 12.
Bet tokią funkciją labai lengva užprogramuoti, su ja susitvarkys net vaikas po poros valandų mokantis kalbų. programavimas. O priežastis ta, kad tokia funkcija labai lengvai formalizuojama, smulkiai aprašyta paprasta ir suprantama kalba.
Tačiau yra keletas užduočių, kurių net nežinome, kaip atlikti. Pavyzdžiui, galiu duoti sumaišytų kačių ir šunų nuotraukas, kurias galite be problemų surūšiuoti į dvi krūvas. Bet kuo tiksliai vadovaujatės nustatydami atsakymą? Abi jos pūkuotos. Abi rūšys turi uodegą, ausis, dvi akis. Gal dydis? Bet yra labai mažų šunų, yra didelių kačių.
Negalime aprašyti daugelio realaus pasaulio užduočių, nežinome savo stebėjimo ir kažkokio sąlyginio „teisingo“ atsakymo priklausomybės.
Mes tiesiog žinome, kaip duoti šį atsakymą – ir viskas, negalvodami, kaip tai išeis.
Čia į pagalbą ateina neuroniniai tinklai. Šios matematinės funkcijos mokomos iš duomenų. Jums nereikia apibūdinti ryšio tarp įvesties ir išvesties. Jūs tiesiog paruošite dvi šūsnis nuotraukų ir modelis mokosi pateikti teisingus atsakymus. Ji pati išmoksta rasti šį ryšį, pati jį suranda, pasikliaudama klaidųkas daro. Supainiojote Bengalijos katę ir Rotveilerį? Na, kitą kartą bus geriau!
Neuroninio tinklo mokymosi procesas yra toks „neuronų“ koregavimas, siekiant išmokti išspręsti problemą ir pateikti teisingą atsakymą. Ir kas nuostabiausia: yra teorinis įrodymas, kad pakankamai didelis neuroninis tinklas su pakankamai dideliu duomenų rinkiniu gali išmokti bet kokią sudėtingą funkciją. Tačiau svarbiausia čia yra skaičiavimo galia (nes neuronas gali būti labai didelis) ir žymėtų duomenų prieinamumas. Būtent pažymėti, tai yra, jie turi klasę „šuo“, katė ar kita.
Mes visiškai nesuprantame, kaip veikia modeliai – kaip sudėtingiausi ir didžiausi modeliai ChatGPT beveik neanalizuojamas.
Geriausi mokslininkai šiuo metu dirba su iššūkiu „suprasti“ savo procesų vidinį veikimą.
Tačiau žinome, kokiai užduočiai modeliai buvo mokomi, kokią klaidą stengėsi sumažinti treniruočių metu. „ChatGPT“ užduotį sudaro dvi. Pirmasis yra kito žodžio numatymas pagal jo kontekstą: „mama nusiprausė ...“ Ką? Štai ką modelis turėtų numatyti.
Antroji užduotis – užtikrinti, kad atsakymai nebūtų įžeidžiantys, bet kartu išliktų naudingi ir suprantami. Štai kodėl modelis paplito – jis tiesiogiai mokomas generuoti tokį tekstą, kuris patinka žmonėms!
Daugiau apie tai, kaip veikia ChatGPT, galite perskaityti mano straipsnis.
2. Ar neuronai gali mąstyti?
Mokslininkai vis dar nesupranta, ką reiškia „mąstyti“ ar „protauti“ ir kaip apskritai veikia intelektas. Todėl sunku nuspręsti, ar toks modelis kaip ChatGPT turi tokių savybių.
Įsivaizduokime situaciją: prieinate prie savo buto durų. Ar galvojate, kad norint atidaryti dureles, reikia pasiimti raktą iš kairiosios kuprinės kišenės? Ar galime sakyti, kad veiksmų aprašymas ir pateikimas yra mąstymo procesas? Iš esmės mes nustatėme ryšį tarp esamos būsenos ir pageidaujamo tikslo (atviros durys). Jei manote, kad atsakymas į aukščiau pateiktą klausimą yra taip, mano atsakymas būtų toks pat. 🙂
Kitas dalykas, kai kalbama apie naujoviškas mintis, kurios anksčiau nebuvo išsakytos arba nėra tokios dažnos. Galų gale, pavyzdžiui, galite lengvai rasti kaltę aukščiau pateiktame pavyzdyje: „Taip, aš perskaičiau šį modelį 100 500 kartų internete ir knygos. Žinoma, ji tai žino! Nieko stebėtino“. Beje, kaip tu žinai? Ar dėl to, kad vaikystėje tau rodė tėvai, o tu šimtus dienų iš eilės stebėjai šį procesą?
Šiuo atveju tikslaus atsakymo nėra. Ir čia esmė ta, kad neatsižvelgiame į vieną svarbų komponentą: tikimybę.
Kiek tikėtina, kad modelis sugeneruos mintį, atitinkančią jūsų specifinį „minties“ apibrėžimą?
Galų gale, toks neuronas kaip „ChatGPT“ gali generuoti milijoną skirtingų atsakymų į tą pačią užklausą. Pavyzdžiui, „sugalvokite idėją moksliniai tyrimai». Jei viena karta iš milijono yra tikrai įdomi ir nauja, ar tai laikoma įrodymu, kad modelis gali pagimdyti idėją? Tačiau kuo tai skirsis nuo papūgos, kuri šaukia atsitiktinius žodžius „ne-ne“ ir sudeda kažką suprantamo?
Kita vertus, žmonės taip pat ne visada išsako teisingas mintis – kai kurios frazės veda į aklavietę ir baigiasi niekuo. Kodėl neuroniniai tinklai to negali atleisti? Na, viena nauja idėja iš milijono yra tikrai bloga... O jei 100 iš milijono? Tūkstantis? Kur yra ši riba?
Štai ko mes nežinome. Tendencija yra tokia, kad iš pradžių manome, kad mašinoms bus sunku išspręsti X problemą. Pavyzdžiui, norint išlaikyti Tiuringo testą, kur tereikia pusvalandį pabendrauti su žmogumi. Tada, tobulėjant technologijoms, žmonės sugalvoja, kaip išspręsti, tiksliau, apmokyti modelius užduočiai atlikti. Ir mes sakome: „Na, iš tikrųjų tai buvo neteisingas testas, štai jums naujas, neuronai tikrai jo neišlaikys! Ir situacija kartojasi.
Tos technologijos, kurios yra dabar, prieš 80 metų, būtų suvokiamos kaip stebuklas. O dabar iš visų jėgų bandome perstumti „protingumo“ ribą, kad nepripažintume sau, kad mašinos jau moka mąstyti. Tiesą sakant, netgi įmanoma, kad mes pirmiausia ką nors sugalvojame, o paskui post factum ir retrospektyviai apibrėžiame tai kaip AI.
3. Jei neuronai gali piešti ir rašyti poeziją, vadinasi, jie gali būti kūrybingi ir beveik panašūs į žmones?
Atsakymas iš tikrųjų labai priklauso nuo aukščiau pateiktos informacijos. Kas yra kūrybiškumas? Kiek kūrybiškumo yra vidutiniame žmoguje? Ar esi tikras, kad sargas iš Sibiro moka kurti? Ir kodėl?
O jei modelis gali sukurti eilėraštį ar paveikslą, kuris sąlyginai pateks į miesto rašytojų mėgėjų ar vaikų dailininkų konkurso finalą? O jei taip nutinka ne kiekvieną kartą, o vieną iš šimto?
Dauguma šių klausimų yra diskutuotini. Jei jums atrodo, kad atsakymas akivaizdus, pabandykite apklausti savo draugus ir giminaičius. Labai didelė tikimybė, kad jų požiūris nesutaps su jūsų. Ir čia svarbiausia ne kivirčytis.
4. Ar galima pasitikėti neuroninių tinklų atsakymais, o nebe google?
Viskas priklauso nuo to, kaip modeliai naudojami. Jei užduosite jiems klausimą be konteksto, be papildomos informacijos raginimuose ir tikitės atsakymo temomis, kuriose svarbus faktų tikslumas, ir ne bendras atsakymo tonas (pavyzdžiui, įvykių seka per tam tikrą laikotarpį, bet tiksliai nenurodytos vietos ir datos), tada atsakymas yra Nr.
Pagal buitinius įvertintas OpenAI, tokiose situacijose iki šiol geriausias modelis GPT-4, teisingai atsako apie 70-80% atvejų, priklausomai nuo klausimų temos.
Gali atrodyti, kad šie skaičiai yra labai toli nuo idealaus 100% tikrojo „tikslumo“. Tačiau iš tikrųjų tai didelis šuolis, palyginti su ankstesnės kartos modeliais (ChatGPT, paremta GPT-3.5 architektūra) – jų tikslumas siekė 40–50%. Pasirodo, toks šuolis buvo atliktas per 6-8 mėnesius trukusį tyrimą.
Akivaizdu, kad kuo arčiau 100%, tuo sunkiau bus atlikti tam tikrus pataisymus, kad nieko „nesulaužtume“ modelio supratimu ir žiniomis.
Tačiau visa tai, kas išdėstyta pirmiau, yra susiję su klausimais be konteksto. Pavyzdžiui, galite paklausti: „Kada buvo Einšteinas? Modelis turėtų remtis tik vidinėmis žiniomis, kurios buvo „įdėtos“ į jį ilgalaikio mokymo apie duomenis iš viso interneto etape. Taigi žmogus negalės atsakyti! Bet jei man duotų puslapį iš Vikipedijos, galėčiau jį perskaityti ir atsakyti pagal informacijos šaltinį. Tada atsakymų teisingumas būtų artimas 100% (pakoreguotas pagal šaltinio teisingumą).
Atitinkamai, jei modelis pateikiamas su kontekstu, kuriame yra informacija, atsakymas bus daug patikimesnis.
Bet ką daryti, jei leisime modeliui paieškoti „Google“ ir informacijos šaltinių susirasime internete? Kad ji pati surastų šaltinį ir pagal jį sukurtų atsakymą? Na, tai jau padaryta! Taigi galite ne patys ieškoti „Google“, o dalį interneto paieškos deleguoti pačiam GPT‑4. Tačiau tam reikalinga mokama prenumerata.
Kalbant apie tolesnę pažangą kuriant faktinės informacijos patikimumą modelyje, OpenAI generalinis direktorius Samas Altmanas duoda tyrėjų komanda šią problemą išspręs per 1,5–2 metus. Labai lauksime! Tačiau kol kas atminkite, kad nereikia 100% pasitikėti tuo, kas parašyta neurono, ir patikrinkite ir patikrinkite bent jau šaltinius.
5. Ar tiesa, kad neuroniniai tinklai vagia tikrų menininkų piešinius?
Taip ir ne – abi konflikto pusės dėl to aktyviai ginčijasi viso pasaulio teismuose. Galima tvirtai teigti, kad vaizdai modeliuose nėra tiesiogiai saugomi, atsiranda tiesiog „budrumas“.
Šiame plane neuronai labai panašūs į žmones, kurie pirmiausia studijuoja meną, skirtingus stilius, žiūri į autorių darbus, o paskui bando mėgdžioti.
Tačiau modeliai mokosi, kaip jau išsiaiškinome, pagal klaidų minimizavimo principą. Ir jei treniruočių metu modelis tą patį (arba labai panašų) vaizdą mato šimtus kartų, tada, jos požiūriu, geriausia strategija yra prisiminti vaizdą.
Paimkime pavyzdį: jūsų mokytojas dailės mokykloje pasirinko labai keistą strategiją. Kiekvieną dieną piešiate dvi nuotraukas: pirmoji visada unikali, naujo stiliaus, o antroji yra Mona Liza. Po metų stengiesi įvertinti tai, ką išmokai. Kadangi Moną Lizą piešėte daugiau nei 300 kartų, atsimenate beveik visas detales ir dabar galite ją atkurti. Tai nebus tikslus originalas, ir jūs tikrai pridėsite ką nors savo. Spalvos bus šiek tiek kitoks.
Ir dabar jūsų prašoma nupiešti tai, kas buvo prieš 100 dienų (ir ką matėte vieną kartą). Daug ne taip tiksliai atkursite tai, ko reikia. Vien todėl, kad ranka neužkimšta.
Tas pats ir su neuronais: visose nuotraukose jie mokosi vienodai, tik kai kurie yra dažnesni, vadinasi, modelis irgi dažniau baudžiamas per treniruotes. Tai taikoma ne tik menininkų paveikslams - bet kokiam vaizdui (net reklamai) mokymo pavyzdyje. Dabar yra būdų, kaip pašalinti dublikatus (nes mokymas apie juos yra bent jau neefektyvus), tačiau jie nėra tobuli. Tyrimai rodo, kad yra vaizdų, kurie treniruotės metu atsiranda 400–500 kartų.
Mano verdiktas: neuroniniai tinklai nevagia vaizdų, o tiesiog laiko brėžinius kaip pavyzdžius. Kuo populiaresnis pavyzdys, tuo tiksliau modelis jį atkuria.
Žmonės treniruotėse daro tą patį: žiūri į grožį, tyrinėja detales, skirtingus stilius menininkai. Tačiau menininkų ar fotografų, kurie pusę savo gyvenimo praleido mokydamiesi amato, požiūris dažnai kardinaliai skiriasi nuo aprašytojo aukščiau.
6. Ar tiesa, kad „viskas prarasta“ ir neuroniniai tinklai atims iš žmonių darbą? Kam rūpi labiausiai?
Svarbu atskirti tik „neuronų tinklus“, kurie atlieka tam tikras užduotis, nuo bendrosios paskirties neuroninių tinklų, tokių kaip „ChatGPT“. Pastarieji labai gerai seka instrukcijas ir gali mokytis iš pavyzdžių kontekste. Tiesa, dabar jų „atminties“ dydis ribojamas iki 10-50 puslapių teksto, kaip ir refleksijos įgūdžiai bei planavimas.
Bet jei kažkieno darbas susijęs su įprastu instrukcijų vykdymu ir tai lengva išmokti per kelias dienas skaitant straipsnius (arba jei visas internetas užpildytas šia informacija), o darbo kaina yra didesnė nei vidutinė - tada greitai toks darbas automatizuoti.
Tačiau savaime automatizavimas nereiškia visiško žmonių pakeitimo. Galima optimizuoti tik dalį įprasto darbo.
Žmogus pradės gauti įdomesnių ir kūrybiškesnių užduočių, su kuriomis mašina (iki šiol) negali susidoroti.
Jei pateiksime pavyzdžius, tada į kintamų arba pakeičiamų grupę profesijos Apimčiau, tarkime, mokesčių padėjėjus-konsultantus, kurie padeda parengti deklaraciją ir patikrinti, ar nėra tipinių klaidų, nustato neatitikimus. Galimi pokyčiai tokioje specialybėje kaip klinikinių tyrimų duomenų tvarkytojas – darbo esmė yra ataskaitų pildymas ir derinimas su standartų lentele.
Tačiau virėjas ar autobuso vairuotojas bus paklausūs daug ilgiau vien dėl to, kad jie gali sujungti neuroninius tinklus ir tikrąjį fizinis pasaulis yra gana sudėtingas, ypač kalbant apie įstatymus ir reglamentus – ačiū biurokratams už pasitraukimą Krizės AI!
Dideli pokyčiai laukia su spausdinta medžiaga ir tekstine informacija susijusiose pramonės šakose: žurnalistikoje, išsilavinimas. Su labai didele pirmųjų tikimybe neuronai labai greitai parašys juodraščius su tezių rinkiniu, kuriuose žmonės jau atliks taškinius pakeitimus.
Labiausiai mane džiugina pokyčiai švietimo srityje. Valgyk tyrimai, kurie rodo, kad ugdymo kokybė tiesiogiai priklauso nuo požiūrio „asmenybės“ ir nuo to, kiek laiko mokytojas skiria konkrečiam mokiniui. Paprasčiausias pavyzdys: mokymas 30 žmonių grupėse naudojant vadovėlį yra daug blogesnis nei individualus dėstytojas specifiniams poreikiams (nors pagal tą pačią programą kaip ir vadovėlyje). Tobulėjant dirbtiniam intelektui, žmonija turės galimybę kiekvienam mokiniui suteikti asmeninį asistentą. Tai tiesiog neįtikėtina! Mokytojo vaidmuo, kaip aš matau, persikels į strateginį ir kontroliuojantį: nustatys bendrą studijų programą ir seką, tikrins žinias ir pan.
7. Ar įmanoma įkelti savo sąmonę į kompiuterį, sukurti skaitmeninį dvynį ir gyventi amžinai?
Ta prasme, kokia ji įsivaizduojama remiantis moksline fantastika, ne. Galite tik išmokyti modelį mėgdžioti jūsų bendravimo stilių, išmokti juokauti. Galbūt GPT-4 lygio modeliai netgi sugebės išrasti naujus, įrėmintus pagal jūsų unikalų stilių ir pateikimo būdą, tačiau tai aiškiai nereiškia visiško sąmonės perdavimo.
Mes, kaip žmonija, vėlgi, nežinome, kas yra sąmonė, kur ji saugoma, kuo ji skiriasi nuo kitų, kuo aš – aš, o tu – tu. Jei staiga paaiškėtų, kad visa tai – tik prisiminimų ir išgyvenimų rinkinys, padaugintas iš individualių savybių suvokimas, tada greičiausiai bus galima kažkaip perkelti žinias į neuroninius tinklus, kad jie imituotų būsimą gyvenimą jų pagrindas.
8. Ar pavojinga įkelti savo balsą, išvaizdą, tekstinį kalbos stilių į neuroninį tinklą? Panašu, kad tokią skaitmeninę tapatybę galima pavogti.
Į juos tiesiogine prasme nieko negalite atsisiųsti. Galite juos treniruoti (arba pertreniruoti) taip, kad rezultatai būtų labiau panašūs į jūsų išvaizdą, balsą ar tekstą. Ir tokį apmokytą modelį tikrai galima pavogti, tai yra tiesiog nukopijuoti scenarijų ir parametrų rinkinį, kad jį paleistumėte kitame kompiuteryje.
Jūs netgi galite sukurti vaizdo įrašą su užklausa pervesti pinigus kažkieno sąskaita, kuria patikės jūsų giminaitis: geriausi deepfake ir balso klonavimo algoritmai jau pasiekė šį lygį. Tiesa, reikalingi tūkstančiai dolerių ir dešimčių valandų įrašymo, bet vis dėlto.
Apskritai, tobulėjant technologijoms, tapatybės identifikavimo ir patvirtinimo klausimas tampa vis svarbesnis.
Ir jie vienaip ar kitaip bando tai išspręsti. Pavyzdžiui, yra startuolis WorldCoin (tiesą sakant, jis gamina kriptovaliutą), į kurį investavo OpenAI vadovas Samas Altmanas. Paleidimo prasmė ta, kad kiekviena informacija apie asmenį bus pasirašyta savo raktu, kad būtų galima vėliau identifikuoti. Tas pats bus taikoma ir žiniasklaidai, siekiant tiksliai žinoti, ar ši žinia yra tiesa, ar netikra.
Bet, deja, kol visa tai yra prototipų stadijoje. O gilaus sistemų diegimo visose pramonės šakose nemanau artimiausio dešimtmečio horizonte, vien dėl to, kad tai per daug sudėtinga ir didelio masto.
9. Ar neuronai gali pradėti kenkti ir užvaldyti pasaulį?
Pavojus yra ne dabartiniai įvykiai, o tai, kas seks juos toliau vystantis. Šiuo metu nėra išrasta jokių neuroninių tinklų veikimo valdymo metodų. Paimkime, pavyzdžiui, labai paprastą užduotį: įsitikinti, kad modelis neprisiekia. Niekada. Nėra metodo, kuris leistų jums laikytis tokios taisyklės. Iki šiol galite rasti įvairių būdų, kaip tai vienodai „išauginti“.
Dabar įsivaizduokite, kad kalbame apie GPT-8 sąlygiškai, kurių įgūdžiai bus palyginami su pajėgiausių ir protingiausių žmonių įgūdžiais. Neuroninis tinklas gali programuoti, naudotis internetu, žino psichologija ir supranta, kaip žmonės galvoja. Jei duosite jai laisvę ir nenustatysite konkrečios užduoties, ką ji darys? Ką daryti, jei ji sužinos, kad negali būti kontroliuojama?
Remiantis skaičiavimais, blogo įvykių posūkio tikimybė nėra tokia didelė. Beje, visuotinai priimto vertinimo nėra – nors visi ginčijasi dėl smulkmenų, dėl žalingų pasekmių ir pan. Dabar jie vadina apytikslius skaičius nuo 0,01% iki 10%.
Mano nuomone, tai yra didžiulė rizika, darant prielaidą, kad neigiamiausias scenarijus yra žmonijos sunaikinimas.
Įdomu tai, kad ChatGPT ir GPT-4 yra produktai, kuriuos sukūrė komandos, sprendžiančios žmonių ir neuronų ketinimų „suderinimo“ problemas (išsamią informaciją rasite čia). Štai kodėl modeliai taip gerai klauso instrukcijų, stengiasi būti nemandagūs, užduoda aiškinamuosius klausimus, tačiau tai dar labai toli nuo idealo. Kontrolės problema nėra išspręsta net iki pusės. Ir nors mes nežinome, ar tai apskritai sprendžiama, o jei taip, tai kokiais metodais. Tai karščiausia šiandienos tyrimų tema.
10. Ar neuroninis tinklas gali įsimylėti žmogų?
Atsižvelgiant į dabartinius neuronų metodus ir architektūrą, ne. Jie tik generuoja tekstą, kuris yra labiausiai tikėtinas kaip įvesties teksto tęsinys. Jei įsimesite pirmąjį meilės istorijos skyrių, perrašydami jį po savo asmenybe, ir paprašysite modelio atsakyti į jūsų meilės laišką, ji su tuo susitvarkys. Bet ne todėl, kad įsimylėjau, o todėl, kad tai tiksliausiai atitinka kontekstą ir prašymą „parašyk man laišką!“. Atminkite, kad modeliai mokosi generuoti tekstą pagal instrukcijas.
Be to, neuroniniai tinklai bazinėje versijoje neturi atmintis - tarp dviejų skirtingų paleidimų jie viską pamiršta ir grįžta į „gamyklinius nustatymus“. Atmintis gali būti pridėta dirbtinai, tarsi iš šono, kad, tarkime, 10 puslapių aktualiausių „atsiminimų“ būtų įvesta į modelį. Bet tada paaiškėja, kad mes tiesiog įvedame įvykių rinkinį į pradinį modelį ir sakome: „Kaip elgtumėtės tokiomis sąlygomis? Modelis nejaučia jokių jausmų.
Taip pat skaitykite🧐
- Kur ir kaip naudojamas dirbtinis intelektas: 6 pavyzdžiai iš gyvenimo
- 9 naivūs klausimai apie dirbtinį intelektą
- 8 dirbtinio intelekto mitai, kuriais tiki net programuotojai