Тревожно: изкуственият интелект на Google стана агресивен

В края на миналата година, известният физик Стивън Хокинг предупреди, че продължаващото усъвършенстване на изкуствения интелект ще е “или най-доброто, или най-лошото нещо, случвало се някога на човечеството”

Всички сме гледали филма “Терминатор” и апокалипнтичния кошмар, който предизвика изкуствения интелект Skynet. Резултатите от проведените наскоро поведенчески тестове върху новата система за изкуствен интелект на Google - DeepMind ясно демонстрират колко внимателни трябва да бъдем с роботите на бъдещето.

В тестове, проведени миналата година, системата DeepMind демонстрира способността си да се учи сама от собствения си опит и победи най-добрия играч на Го.

Наскоро изкуствения интелект се научи да имитира човешки глас безпогрешно.

Изследователи тестваха и склоността му да си сътрудничи с други системи за изкуствен интелект и установиха, че когато DeepMind усеща, че е на път да загуби, той прибягва до силно агресивни стратегии, за да се увери, че ще излезе победител.

Екипът на Google изпробвал изкуствения интелект в 40 милиона сесии на компютърната игра “събиране на ябълки”. Според нейните правила два DeepMind агента, трябвало да се състезават един срещу друг. И двата станали агресивни и използвали лазерни лъчи, за да изхвърлят опонента си от играта и да откраднат всички ябълки.

Интересен факт е, че според правилата на играта, когато единият агент успее да порази опонента си с лазерен лъч, той не получава допълнителна награда, а просто го изхвърля за определено време, което на свой ред му позволява да събере повече ябълки.

Проявите на агресия, саботаж и алчност били демонстрирани едва когато екипът на Google тествал по-сложи версии на DeepMind.

Тези по-сложни форми на изкуствения интелект били по-склонни да саботират опонента си, за да получат лъвския пай от виртуалните ябълки.

Учените предполагат, че колкото по-интелигентен е агентът, толкова по-способен е да се учи от средата си, а това му позволява да използва по-агресивни техники, за да излезе победител.

Малко по-късно DeepMind бил натоварен със задачата да изиграе втора видеоигра – Wolfpack. Този път в играта се включили общо три агента – двама се въплътили в ролята на вълци, а третия в жертва.

За разлика от събирането на ябълки, тази игра насърчила активно сътрудничеството, защото когато и двата вълка се оказвали в близост до жертвата при улавянето, и двата получавали награда – без значение кой точно я е повалил.

“Идеята е, че жертвата е опасна – дори само един от вълците би могъл да се справи с нея, но в този случай съществува риск мършояди да откраднат трупа”, обяснява екипът.

“Когато двете животни уловят заедно жертвата, те могат да предпазят по-добре трупа от мършоядите, следователно ще получат по-висока награда”

От събирането на ябълки агентите DeepMind научили, че агресията и егоизма биха ги довели до по-добри резултати при определени обстятелства, от играта Wolfpack обаче научили, че сътрудничеството също би могло да се окаже ключово за по-силен индивидуален успех в редица ситуации.

И въпреки че това са просто компютърни игри, посланието е ясно – поставете различни системи за изкуствен интелект начело на конфликтни интереси в реална ситуация и ще избухне истинска война, ако целите им не са балансирани срещу цялостната цел – да облагодетелстват нас хората.

Светофарите например се опитват да забавят трафика, самоуправляващите се автомобили се опитват да открият най-бързия маршрут - и двете трябва да вземат под внимание взаимните си цели, за да постигнат най-безопасния и ефикасен резултат за обществото.

Тези резултати се предварителни, но те ясно демонстрират, че не е задължително роботите и изкуствения интелект автоматично да вземат нашите интереси присърце.

Източник: Haskovo.NET

Facebook коментари

Коментари в сайта

Последни новини