Доскоро „ало измамниците“ в България разчитаха на една стара, но работеща схема – обаждане по стационарния телефон, дрезгаавглас и драматична история за пострадал роднина или спешна операция на „златна става“. Ние се научихме да ги разпознаваме. Смяхме се на „Нигерийския принц“, който ни пишеше имейли на развален български с помощта на Google Translate.
Любопитно: Хакът на века: Как най-голямата пиратска библиотека в света копира 300TB от Spotify
Днес обаче играта се промени. С навлизането на генеративния изкуствен интелект (GenAI), измамниците вече не са просто хитри манипулатори – те са технологично въоръжени. Те вече не звучат като непознати; те звучат точно като децата ви. Те не пишат с грешки; те копират стила на вашата банка до съвършенство.
За българския потребител това е сериозна заплаха. Ние сме активни в социалните мрежи, качваме гласови съобщения и видеоклипове, без да осъзнаваме, че захранваме алгоритмите, които утре могат да бъдат използвани срещу нас. Ето четирите нови метода, с които AI превръща киберсигурността в личен проблем, и как да не станете жертва.
1. Еволюцията на фишинга: Краят на „разваления български“
Традиционният фишинг разчиташе на масови имейли, които често изглеждаха нелепо. AI промени това. Чрез използването на LLM (Големи езикови модели), хакерите могат да генерират перфектно граматически издържани съобщения, имитиращи тона на легитимни институции.
Представете си, че получавате имейл от „Еконт“, „Спиди“ или вашата банка (ДСК, Булбанк и др.). Логото е там, тонът е корпоративен и учтив, няма нито една правописна грешка. AI анализира хиляди реални имейли на тези компании и създава клонинг, който е неразличим за човешкото око.
Ние в Digital.bg смятаме, че ограмотяването на измамниците благодарение на AI е най-тихата, но най-опасна заплаха. Вече не можете да разчитате на „усет за грешки“. Единственият начин за проверка е технически – гледайте адреса на подателя (sender email), а не името.
2. Гласово клониране: Кошмарът на всяка майка
Това е може би най-плашещата технология. AI инструментите се нуждаят от само няколко секунди запис на вашия глас (от Story в Instagram, TikTok видео или гласово съобщение), за да създадат убедителен клонинг.
Сценарият е класически, но „подобрен“: Звъни телефонът, чувате гласа на дъщеря си или сина си, който плаче и казва, че е претърпял инцидент или е отвлечен. Паниката блокира логическото мислене. В САЩ вече има десетки случаи на хора, платили откуп заради AI глас. У нас, където телефонните измами имат почва, тази технология може да предизвика истинска епидемия.
3. Spear Phishing и „Сом“ атаки (Catfishing)
Ако традиционният фишинг е като хвърляне на мрежа в морето, „Spear phishing“ е лов с харпун – насочен директно към вас. AI анализира публичния ви профил във Facebook или LinkedIn. Вижда, че обичате риболов, скоро сте били в Гърция и имате куче. След това създава фалшива самоличност (Catfishing), която споделя точно тези интереси.
Ботът започва чат с вас, звучи невероятно адекватно и приятелски. Целта? Романтична измама, кражба на лични данни или предложение за „инвестиция в крипто“.
4. Deepfake видео: Когато очите лъжат
Виждате видео на известен български инфлуенсър или дори на шефа ви, който ви приканва да кликнете на линк за „раздаване на награди“ или нарежда спешен банков превод. Технологията Deepfake позволява подмяна на лицето и синхронизиране на устните в реално време. Има регистрирани случаи, при които служители са били измамени да преведат милиони след видео разговор с „финансовия директор“, който всъщност е бил AI аватар.
Как да се предпазим? (Наръчник за оцеляване)
Въпреки мощта на AI, той не е безгрешен. Ето конкретните стъпки, които трябва да предприемете днес:
Семейна парола (Safe Word) Разберете се с близките си за тайна дума или фраза. Ако получите обаждане с искане за пари или помощ от „техния глас“, попитайте за паролата. AI няма как да я знае.
Проверка на емоцията AI гласовете често звучат монотонно или прекалено истерично, без естествени паузи за дишане. Ако се съмнявате – затворете и наберете човека на личния му номер.
Тестът „Обърни глава“ Ако се съмнявате, че видео разговорът е Deepfake, накарайте човека отсреща да завърти рязко главата си настрани или да размаха ръка пред лицето си. AI моделите често „бъгват“ при бързи движения и профил.
Линк параноя Никога не отваряйте линкове от имейли, които изискват спешно действие („Акаунтът ви е блокиран“, „Пратката е задържана“). Влезте ръчно през браузъра в сайта на институцията.
Доверете се, но проверявайте
Технологиите не са „зли“, те са инструменти. Същите алгоритми, които помагат на лекарите да откриват болести, помагат на крадците да откриват жертви. Ключът към безопасността не е страхът, а здравословният скептицизъм.
Съвет от Digital.bg: Не чакайте да се случи на вас. Още тази вечер въведете „Семейна парола“ с родителите и децата си. Това е най-добрата „антивирусна“ срещу телефонните измами на бъдещето.


















