Алаяқтар қазақ тілінде адамдарды алдау үшін жасанды интеллектіні пайдалана бастады
© Сурет: gov.kz
ҚР ІІМ баспасөз қызметі соңғы уақытта алаяқтар адамдарды қазақ тілінде алдауы үшін заманауи технологияларды, соның ішінде жасанды интеллектіні кеңінен пайдаланып жүргенін ескертеді, деп хабарлайды Zakon.kz.
Белігілі болғандай, олар банк, құқық қорғау органдары немесе туыстарыңыздың атынан хабарласып, шынайы адамның дауысын дәл салып, сеніміңізге кіруге тырысады.
"Тіпті Deepfake технологиясын қолдана отырып, танымал тұлғалардың немесе жақын жандарыңыздың бейнесін шынайы етіп жасап, бейнеқоңырау шалу арқылы алдауға дейін барады. Мұндай әдістерді қолдану – адам психологиясына әсер етіп, тез шешім қабылдауға мәжбүрлейді. Жеке деректеріңізді – ЖСН, банк шоты, құпиясөздер мен SMS арқылы келетін кодтарды ешкімге бермеңіз. Ақпаратты тек ресми және расталған дереккөздерден алыңыз", - дейді полициядағылар.
Полиция қызметкерлері күмән тудыратын хабарламалар мен қоңырауларға аса мұқият болуға кеңес береді. Эмоциясыз дауыс, қисынсыз сөйлемдер мен асығыс әрекетке итермелейтін сөздер – алаяқтардың айқын белгілері.
Бұған дейін ІІМ шетелге демалуға баруды жоспарлап отырған ел азаматтарына үндеу жасаған еді.
Источник: zakon.kz
Подписывайтесь на наш Telegram-канал. Будьте в курсе всех событий!
Мы работаем для Вас!
Тағы да оқыңыздар:
-
22:48, 18 желтоқсан 2025
Ақтөбеде балконында марихуана өсірген ер адам ұсталды
-
21:58, 18 желтоқсан 2025
Билік мектептегі тамақтану мәзіріне жылқы етін аптасына екі рет қосуды ұсынды
-
21:31, 18 желтоқсан 2025
Алматының барлық ауданында жаңа жылдық шыршаның шамы бір уақытта жағылды
-
20:49, 18 желтоқсан 2025
Павлодар облысында педофил 20 жылға бас бостандығынан айырылды
-
20:12, 18 желтоқсан 2025
Атырауда синтетикалық есірткі таратумен айналысқан өзге облыс тұрғыны ұсталды





