Кокетливите ботове. Как ни мамят в просторите на интернет

16:06, 1 Юли 2014

Хората открай време мечтаят да притежават умни машини, приличащи на човека. Дали мечтите са на път да се сбъднат? И струва ли си да се радваме от това?

Понякога те ви подвеждат с предложение за секс, на което клъввате като шаран. Друг път се подвеждате по това, че те ви се струват мъдри, добронамерени или просто смешни. За ботовете е все едно по какъв начин ви мамят – тяхната единствена задача се състои в това, да ви накарат да вярвате, че насреща си имате човек. Ако сте от активните потребители на социалните мрежи или просто прекарвате много време в интернет, има голяма доза вероятност някога да сте станали жертва на някоя от милионите програми ("бот" – съкращение от "робот" – бел. ред.), създадени специално да имитират човешки разговор в безбройните форми на чатове и комуникационни канали.

В началото на месец юни тази година беше огласена новината, че за пръв път, разработен в Русия чат-бот, е преминал през теста на британския пионер в информатиката Алан Тюринг. С този тест се оценява изкуствения интелект на компютри. По време на обмен на текстови съобщения, компютърната програма, наречена Eugene Goostman ("Евгений Густман") успя да убеди достатъчно висок процент от участвалите в теста, че си говорят с 13-годишен украинец. Оптимистите смятат, че по този начин е даден категоричен отговор на въпроса, възможно ли е да се създаде изкуствен интелект – въпрос, зададен от Тюринг преди много години.

Дали това събитие е началото на нова ера, както амбициозно афишираха постижението организаторите на теста от университета в британския град Рединг? Не е точно така. Тестът на Тюринг преди години беше признат за не толкова значим в областта на изкуствения интелект. Много учени днес разглеждат подобни състезания на суперпрограми като несъвършени, защото може да бъдат спечелени с мошеничество - например, ако програмата се преструва на човек, за когото английският не е роден език.

Далеч по-интересно е онова, на което са способни чат-ботовете в ежедневието ни. В интернет те просто се усукват около нас, опитвайки се да ни измамят, да ни накарат да повярваме, че насреща ни са реални хора. Да участват в конкурси за тях е безпредметно. Някои са достатъчно хитро измислени, за да проникват в социални мрежи и даже да влияят на формирането на общественото мнение. И са много, наистина много.

Болшинството от нас смятат световната мрежа за място, в което основният трафик се генерира от хора, но на практика това изобщо не е така. В последните данни се отчита, че 61,5% от интернет-трафика се генерира от компютърни програми, работещи самостоятелно – без намеса от човек. Тоест – ботове.

Заслепени от секса
За да ни излъжат ботовете ползват най-много съблазнителните за хората примамки, обяснява пред ВВС Ричард Уолъс от компанията Pandorabots, която разработва чат-ботове за компании, работещи с клиенти, както и за други цели. Уолъс е създател на бот, наречен A.L.I.C.E, което се разшифрова като Artificial Linguistic Internet Computer Entity ("Изкуственна лингвистическа интернет-компютърна същност”)."Алиса" три пъти е побеждавала в конкурси, в които чат-ботове си съперничат един с друг, опитвайки се да убедят членовете на журито в своята “човечност”.

"Най-добрите създатели на такива ботове изобщо не са професионални програмисти, а хора, които работят в творческата сфера. Ключът за създаването на добър чат-бот се крие в написването на правдоподбни, забавни и интересни отговори”, казва Уолъс.

Мошениците са напълно наясно с този феномен. Компанията Cloudmark, специализирана в изследвания в областта на компютърната безопасност, е засякла появата на кокетлив бот с името TextGirlie. След като “научи” името на жертвата и телефонния й номер от социалните мрежи, TextGirlie започва да изпраща на жертвата персонализирани съобщения с покана да продължат разговора в онлайн чат. Следва размяна на няколко кокетни реплики, след което на жертвата се предлага да последва линк, който води към сайт за запознаства или сайт с “палави” уеб камери.

Спецовете от Cloudmark са пресметнали, че в арсенала на TextGirlie има от порядъка на 15 милиона текстови съобщения, които се пращат предимно през мобилни приложения, и че ботът-мошеник работи вече няколко месеца. По думите на анализаторите от компанията, това е явен признак, че програмата е успешна.

Автоматизирано мошеничество
Ботовете успяват най-често да излъжат хора в ситуации, когато те очакват от събеседника си да се държи странно до известна степен или... да заговори на развален английски.
Например, още през 1971 година психиатърът Кенет Колби успява да убеди няколко свои практикуващи колеги, че разговарят през компютърен терминал с истински пациент. Всъщност Колби използва програма, която моделира поведението и приказките на параноиден шизофреник.

Съвсем наскоро, през 2006 година, психологът Робърт Епщайн бива подведен от хитра програма, имитираща поведението на влюбена в него рускиня. В последно време ботовете се роят на сайтовете за запознанства, оплитайки в мрежите на автоматизираното мошеничество все повече страдащи от самота хора.

Понякога ботовете са способни да заблудят дори напреднали интернет потребители. Бърди Яворски знае какво е усещането от собствен опит. Яворски е една от маниакалните потребителки на социалния новинарски сайт Reddit и адепт на виртуалната валута dogecoin. Във форума на Reddit не отдавна се поява потребител с ник wise_shibe, който помества остроумни съобщения в стила на “древните мъдрости”. “Неговите мисли звучаха така, все едно ги е казал Конфуций”, спомня си Яворски.
Коментарите започват да носят на wise_shibe пари, защото форумът позволява на потребителите да изпращат един на друг малки “бакшиши” в цифрова валута, ако са харесали даден коментар. Репликите на wise_shibe са популярни и печелят много “бакшиши”. Но съвсем скоро всичко започва да изглежда подозрително – акаунтът е активен по всяко време на денонощието и в края-на краищата започнал да се повтаря с “мъдрите мисли”.

След като става ясно, че wise_shibe е бот, някои от участниците във форума изразяват своето възмущение. Други пък заявяват, че нямат нищо против. Яворски е учудена, но се чувства и измамена. “Изведнъж разбираш, че този човек от форума, който взема от теб виртуална валута като благодарност за остроумните коментари, не е нищо повече от малка кутия с електроника – робот”, спомня си Яворски.

Фантомите в Twitter
Ако от самото начало на “взаимодействието” ни с бот всичко ни изглежда достатъчно естествено, то ние приемаме, че насреща ни е човек.
За Фабрицио Бенвенуто това “явление” се превръща в предмет на сериозни изследвания. Наскоро той и трима други учени публикуваха статия, в която се обяснява колко просто е за “социалните” ботове да проникнат в Twitter, ако се държат, “изглеждат” и действат като реалните потребители на тази мрежа за обмен на кратки съобщения.
Бенвенуто и колегите му създават 120 бот-акаунта, като се постарали всеки от тях да има убедително изглеждащ профил с картинка и такъв чисто човешки атрибут, като например… пол. Месец по-късно учените констатират, че механизмите за идентификация на ботове в Twitter не са успели да “разобличат” почти 70% от “експерименталните” акаунти. Нещо повече – ботовете са програмирани да си взаимодействат с другите потребители и за съвсем кратко време успяват да привлекат солидна група последователи - почти 5 000 души. Не бива да се подженяват възможните последици от подобни резултати. “Ако бъдат създадени големи количества програми – социални ботове, то възниква потенциалната възможност те да бъдат използвани за влияние върху общественото мнение. Например, чрез публикуване на голям брой фалшиви съобщения и арогантно “напудряне” или “влошаване” на общественото мнение по дадени проблеми”, се казва в статията.

Използването на батальони от настойчиви ботове (или пък специално наети платени потребители – т.нар. “тролове”) за изкуствено манипулиране на обшественото мнение се нарича астротърфинг (astroturfing).
Потенциалното влияние, което астротърфингът може да окаже, например върху изхода от едни политически избори, вече предизвиква безпокойство сред професионалистите. Автор в един от блог-каналите на информационна агенция Reuters призова за забрана, кандидатите в политически надпревари да нямат право да използват ботове в предизборните кампании.

Последиците от астротърфинга могат да бъдат наистина сериозни, и то до толкова, че министерството на отбраната на САЩ да се включи във финансирането на разработка на софтуер, способен да определя дали даден акаунт в Twitter не принадлежи на бот-програма.

Онлайн-приложението се нарича BotOrNot. Достъпно е за широката публика и се опитва да направи предварителен анализ, като се основава на дейността на акаунта, семантиката на туитовете му, което с голяма вероятност може да определи кой стои зад акаунта – жив човек или бот.

Водещият на проекта Емилио Ферара, обаче признава, че системата вероятно вече е поостаряла. “Обучаването” й е проведено върху съдържанието на туитовете от преди три години, и е много вероятно днешните ботове вече да са се научили да се преструват по-добре.

“Днес ботовете са по-съвършени. Маскират се по-добре, повече приличат на хора. Затова и задачата ни все повече и повече се усложнява. Даже не знаем точността, с която системата ни успява да открива най-новите и напредничави ботове”, казва Ферара.

Без съмнение ботовете ще продължат да се развиват. Надеждата е, че хората ще се научат да разпознават мошеничеството и няма да приемат с наивност непознатите потребители, които влизат в контакт с тях в интернет. Но това не е никак лесна задача. Бъдещите ботове ще са още по-изобретателни в методите, които ще използват, за да замотаят главите на хората.
Бъдете внимателни и не вярвайте на обещанията за “безплатни обеди”.

Вашите коментари

най-ново | най-четени