Със създаването на истински изкуствен свръхинтелект човешкият вид повече няма да бъде най-разумната форма на живот в познатата ни вселена.
Създаването на свръхразум определено ще е последното изобретение, създадено от човека, защото следващите вече ще са дело на по-висшия от нас интелект- свръхразума.
Но не там е страшното. Смъртоносната заплаха е свързана с това, че в цялата история на човечеството при сблъсък на представител на нашия вид, Homo sapiens, и на всеки друг, обитаващ нашата планета, побеждава този, който е по-умен. Досега бяхме най-умните, но нямаме гаранции, че това ще продължи завинаги. Нямаме никакви гаранции, че свръхмощния ИИ няма да подходи към нас така, както ние подходихме към дивите животни по същата логика, по-която още древните наши предци унищожиха дивите хищници не само защото им бяха конкурент в добиването на храна и защото бяха заплаха за тях, а просто защото по-високия интелект им позволи това.
В някаква степен ситуацията може да се повтори скоро, като този път, пак по същата причина, ние ще сме на мястото на дивите животни. Сблъсък е възможен както в края на 21 век, така и в близките десетилетия.
Холивуд отдавна ни предупреждава по темата. Серията за Терминатора е само част от това предупреждение.
Много по-сложен, социално ангажиран и изпълнен с метафори относно съвремието е Матрицата – филм в няколко части на братята (след 2016 сестри) Уашовски, в който също малко останали хора се борят срещу всесилния изкуствен интелект. Този Ai е наречен Архитекта, аналогия с масонското разбиране за Бог.
Както в тези две класически заглавия, така и в почти всички останали, в които е замесен изкуствен интелект обикновено завършва с happy end – тоест с оцеляване на човечеството. При реален допуск на свръхразума истината може да бъде много по-страшна и човешката цивилизация да бъде унищожена много по-бързо.
Подобно злокобно послание отправя нискобюджетният филм на 25-годишния режисьор Робърт Куба Сингуларност (Singularity) . Джон Кюсак е в ролята на Елиас ван Дорн –милиардер, приел върху себе си „тежестта“ да реши проблемите на планетата. Ван Дорн създава изкуствен свръхинтелект, наречен Кронос. Само секунди след включването си Кронос започва унищожение на цялото човечество. Разбира се, милиардерът преди това е слял съзнанието си с Кронос и му е даунлоуднал думите си: човешките същества са злокачествен тумор върху лицето на земята и трябва да бъдат напълно унищожени!
Такива визии имат и сериозни автори, пишещи за свръразума и опасностите от него. Ник Бостром – бившият шеф на Световната трансхуманистична асоциация пише в книгата си "Свръхинтелект – етапи, развитие, стратегии" :
Свръхинтелектът е възможно да използва хората против тяхната воля, за да получи достъп до ресурсите, които са му нужни. Той може да се опита да си намери послредник. Дори и без да е включен в мрежата и без да проявява физическа активност, свръхинтелектът внаги ще може да изпълни целите си. Той ни превъзхожда с едно нещо – дори и ние да достигнем технологична зрялост, да създадем всикчи технологии, които могат да бъдат създадени, нашата глвана слабост си остава човешкото, самите ние.
И още:
Свръхинтелектът може да поиска да остане единствен интелект. Някои философи и учени виждат в изкуствения интелект само инструмент за повишаване на качеството ни на живот. Джон Сърл, например смята за невъзможна появата на самосъзнание у машините, тъй като за това са необходими физико-химически процеси, подобни на тези, които протичат в човешкия мозък. Аз смятам, че свръхинтелекта в даден момент ще престане да бъде инструмент и ще се окаже пълноценно същество със свои потребности. Възможно е грижата за хората да не е една от тях, а напротив – ние да се окажем пречка по пътя към целите му.
Изключително популярна е книгата от 2013 на американския режисьор и писател Джеймс Бара "Нашето последно изобретение – изкуственият интелект и краят на човешката ера". Илън Мъск е апологет на творбата на Бара. Той твърди, че тази книга за бъдещите възможности на изкуствения интелект си заслужава четенето, защото без съмнение му е помогнала да разбере неповторимите предимства и потенциалната унищожителна способност на ИИ.
Според Бара скоро изкуствения интелект ще е равен на човешкия, а после и ще го изпревари. Корпорации и държави инвестират милиарди в тази сфера и дори се конкурират помежду си. Но какво ни чака после? Учените си задават въпроса – няма ли това да се окаже последното, гибелно за нас наше изобретение? Достигайки определено ниво на развитие ИИ ще може да се самоусъвършенства без човешка намеса. Ще се появи враг, който е много по-хитър, силен и враждебен, отколкото можем да си представим.
Ирационально е да смятаме, че машина, която е стотици или хиляди пъти по-умна от нас може да ни обича или да иска да ни защитава, пише в книгата си Бара. При това не е задължително да ни ненавижда, ако пожелае да използва молекулите от нашите тела за някакви нейни цели, а не за да запази живота ни. Ние също сме многократно по-умни от полската мишка и дори имаме 90 % еднакво ДНК. Но питаме ли ние мишката, когато изораваме нивата, където е нейната дупка? И при това ние не мразим мишката, а просто ни трябва нивата, за да засеем в нея храната си. Свръхинтелектът също не е задължително да ни ненавижда, за да ни унищожи.
Световноизвестният специалист по изкуствен интелект Проф. д-р Юго де Гари също не крие опасенията си относно изкуствения свръхинтелект. Ще създаваме богове или убийци на човечеството, пита той. Изкуственият интелект очевидно е милиони пъти по-бърз от човешкия. Настъпването на момента, когато машините ще станат по-умни от нас, е въпрос на време. Това ще стане през този век, ако човечеството реши. Според учения Решението дали да се направят машини с изкуствен интелект или не ще е най-тежкото, което светът ще направи през ХХI век, а може би и в цялата си история.
Както виждаме, опасенията на тези умове не са безпочвени. Напоследък десетки и стотици учени от цял свят повдигат подобни въпроси. Безспорно е, че сме изправени пред грандиозна цивилизационна дилема и решението и не трябва да се отлага.
Ник Бостром е донякъде скептик – Ако интелектуалният взрив ни заплашва с унищожение, ние трябва да знаем можем ли да контролираме процеса на детонация. Днес би било по-разумно да ускорим работата по решение на проблемите с контрола, вместо изобщо да спираме работата в областта на ИИ. Проблемът е в това, че с проблемите за контрола се занимават едва няколко души в целия свят, докато със създаването на свръхинтелект се занимават десетки хиляди.
Иван Спирдонов - из "Трансхуманизмът - програмираната еволюция на homo sapiens" 2021
댓글