Ива Касабова
~~~~~~~~~~~~~~~~
– Заповядайте, професоре – вдигна поглед президентът. – Седнете.
– Благодаря – Томпсън пристъпи в обширния кабинет, огледа се и се настани в посочения му фотьойл. – Нетърпелив съм да науча с какво мога да ви бъда полезен.
– Господин Томпсън, вие сте посветил живота си на изкуствения интелект, затова се обърнахме към вас. Имаме няколко инцидента с роботи. От новия хуманоиден модел СиПиЕР44 – подхвана президентът след като представи двама от присъстващите като директори във фирмата производител и мрачен мъж – като висш полицейски служител.
– СиПиЕР44? Добра разработка, всички най-нови технологии са вложени в тях. Мисля бяха хит на пазара последните няколко години.
– Така е. Истински хит. Продали сме над триста милиона в цял свят – обади се единият фирмен представител.
– За жалост нещо се обърква в тях – продължи президентът – защото имаме няколко нападения над хора. Опасяваме се, че са развили съзнание и скоро можем да имаме сериозни проблеми с тях.
– Съзнание? – подсмихна се професорът. – Господин президент, опасявам се че това е невъзможно. Това са просто машини.
– Машини? – обади се едрият мъж, извади няколко снимки и ги нареди пред професора. – Разгледайте ги добре, вижте тези обезобразени трупове на хора, убити от машини, както ги наричате. Повярвайте, това не са инциденти, а убийства. Какви са мотивите, идея си нямаме.
– Мотиви? Знаете ли изобщо за какво говорите? – ядоса се професорът и побутна фотографиите. – Роботите нямат его, нито чувства, нито съзнание, нито желания. Те няма как да имат мотиви.
– Професоре – подхвана президентът – нека се успокоим. Нямаме нужда от спор, а от решения. Знаете, че роботите могат да се обучават един друг; това явление може да плъзне като зараза и човечеството да се озове в опасност. Опасяваме се единствено да не изпуснем нещата от контрол. Каква може да е причината според вас роботите да убиват хора?
– От глупост – Томпсън вдигна рамене.
В стаята настана оживление. Усмивки се изписаха по лицата на присъстващите.
– Сигурно се шегувате – намръщи се мъжът със снимките. – Имаме сериозен проблем и шегите ви са крайно неуместни.
– Уважаеми господине – изгледа го професорът – да ви приличам на шегаджия? Повикахте ме за съвет, а не искате да го чуете. Ако желаете да разберете какво е това изкуствен интелект, по-добре не ме прекъсвайте.
– Моля, говорете – подкани го президентът и възпря с жест полицейския началник.
– Нашите роботи имат невронна мрежа – оживи се професорът – и биват обучавани чрез явен или скрит модел. При явния модел има своеобразно дърво на решенията. Ако го проследим, ще можем да разберем по каква „логика”, така да се каже, роботът е взел едно или друго решение. Иначе казано ние сме програмирали решението. При скрития модел обаче тази „логика” ни е напълно неясна, защото нямаме идея кой е обучавал робота и как го е научил да „мисли”. Тоест при нашите роботи поговорката „с какъвто се събереш, такъв ставаш” важи с пълна сила.
Мъжете срещу него се смълчаха. Професорът усети объркването им и додаде:
– Вижте, когато казах, че това е само една машина, нямах намерение да омаловажа ситуацията. Имах предвид, че алгоритмите дават резултати, а не обяснения. Дори хората понякога не могат обяснят решенията си и прибягват до „ами така го почувствах”. При роботите взимането на решения е толкова бързо, изчисленията и обработването на информация – толкова светкавично, че практически е невъзможно да разберем какво точно се случва и как те стигат до съответното решение. Затова никой не може да ви обясни, включително и роботът убиец, защо е решил да убие тези хора.
– И те не съзнават какво вършат? – измърмори едрият мъж.
– Много хора смятат, че щом машината прилича на човек, държи се като човек, разговаря като човек, то значи е човек, но не е. Разликата е, че ние сме живи и наистина интелигентни, докато те не са.
Президентът стана от стола си, разтъпка се из кабинета и се доближи до професора.
– Допреди година никой и не смяташе, че ще убиват хора, но вече имаме пет трупа. Ако беше само един, бихме казали, че е дал дефект, но пет вече е тревожно. На какво може да се дължи това? Предполагам никой производител не би обучил роботите си да убиват хора, това би било катастрофално за бизнеса – замисли се, но продължи: – Вижте професоре, откакто тези роботи станаха лесно достъпни, почти всеки има по един, а по-богатите и по два в дома си. Какво ще стане ако машините решат да убият стопаните си?
– Едва ли – въздъхна професорът. – Проблемът е, че много учени се изкушиха да дадат известна свобода на самообучението и оставиха изкуственият интелект сам да пише дървото на решенията си. Една от първите разработки на „Майкрософт”, ботът Тао, само след няколко часа общуване с интернет-потрбители се превърна в расист и масов убиец. Това не означава, че е осъзнавал какво говори. Той се е обучил от чата си с хората. Разбира се, един бот няма как да убие, но роботът с човешко тяло може да имитира човека не само в разговорите, но и в поведението. От тогава са изминали сто и двадесет години. Информацията, с която нашите роботи разполагат днес, е трилиони пъти повече от информацията с която са разполагали онези първи проекти. Мога спокойно да кажа, че нашият последен модел СиПиЕР44 притежава потенциала да се учи, твори и действа като човек, без да има съзнание за това...
– Със или без съзнание тези роботи убиват хора и ни трябва решение как да спрем това – прекъсна го едрият мъж, наведе се напред и впери поглед в професора.
– Има един лесен начин – изръмжа Томпсън. – Унищожаваме всички роботи и готово. Няма робот, няма проблем.
– Да ги унищожим? – обади се единият от производителите. – След двеста години труд да стигнем до тук? Нима смятате, че хората ще се откажат от тях? Все едно да унищожим интернета или компютрите. Не може да няма друго решение.
Томпсън се замисли и след малко проговори сякаш на себе си:
– Има разбира се, но е по-трудно, почти невъзможно.
– Слушам – подкани го президента.
– Както казах, роботите нямат съзнание – намести се професорът. – Нямат съвест или угризения, нямат морал. Имитират ни, учат се от нас... така сме ги създали. Никога няма да видите робот да имитира куче или котка, но ще видите робот да се усмихва или да танцува. Ние не просто ги научихме да говорят, да сме смеят, да се движат и дори да спят като хората, докато се зареждат, ами и им дадохме възможност да попълнят онова човешко поведение, което не сме се досетили да програмираме. Например, ако едно дете расте в семейство с насилник, вероятността то също да стане насилник е много голяма, но не е задължително. На основата на своето страдание и опит детето може да реши, че насилието е много лошо нещо и да го отхвърли, изпитвайки неприязън към агресивни хора. С роботите не е така. Те нямат опит с болката, не могат да осмислят поведението на модела пред тях. Те просто ще го вземат за пример за подражание.
– Но това означава, че роботите трябва да са виждали убийство, за да ги извършат – промълви президентът и се спогледаха с мъжагата.
– Всъщност може да не са имитирали убийство, а бой или гняв, но от силата им да се е получил този резултат.
– Какво да правим? – надигна се едрият мъж.
– Нищо, освен да станем по-добри хора – усмихна се професорът.
– Искате да направите човечеството пример за подражание на роботите? – подсмихна се тъжно президентът. – Никой никога не е успял да се справи със злото в света. Как бихме могли да го направим ние?
– Е, ако не можем, то тогава трябва да свикнем с мисълта, че с каквато мяра мерим, с такава ще ни се отмери. Агресивните хора ще бъдат най-вероятната жертва на домашния си робот. И не защото роботът иска да ги превъзпита, а защото ще започне да имитира стопанина си. Добър стопанин – добър робот, агресивен стопанин – агресивен робот. Това е положението – разпери ръце Томпсън. – Нито полиция, нито съд може да опази лумпените от собственото им поведение. Затова ви съветвам да ограничите движението на роботите извън частната собственост на стопанина им. Така ще намалим контакта на агресивни роботи с невинни хора. Не е лошо и да се избягва продажбата на СиПиЕР44 на хора с проблемно поведение, за криминални прояви да не говорим. Съветвам още да се разработи програма, в която да се попълнят негативните човешки прояви, за да може роботът да бъде коригиран, ако реши да прояви агресия. Предстоят трудни години за хората, които ще се изравят пред самите себе си...
В стаята цареше пълна тишина. Всеки пресмяташе вероятността домашният им робот да стане агресивен спрямо тях и семействата им. Всеки имаше в дома си някакви моменти на проблеми с общуването – или изнервен тийнеджър, или чести семейни скандали, или някакви изблици на гняв. Но сега трябваше да се превърнат в хора без отрицателни емоции и реакции. Трябваше да станат роботи, за да направят роботите хора.
– Е, аз ще тръгвам, ако това беше всичко – обади се професорът. – Казах ви каквото искахте, сега ви оставям да намерите решение. Все пак ние, хората, сме наистина интелигентни за разлика от машината.
Професор Томпсън стана, взе чантата си, ръкува се с всички и си тръгна. Навън все още се движеха хора, придружавани от своите роботи, най-често за да им носят багажа... „Казват, че кучетата приличат на стопанина си – помисли си професорът – искаше ми се нещата да си бяха останали такива...”
Няма коментари:
Публикуване на коментар