Канал Cybercalm

Cybercalm

we:@cybercalm
1.1 тис дописів, 23 підписників
Cybercalm на we.ua
Що таке фішинг з порожніми зображеннями?

CyberCalm

Що таке фішинг з порожніми зображеннями?

Фішинг – це тактика соціальної інженерії, метою якої є отримання вашої особистої інформації. Кіберзлочинці постійно розробляють нові фішингові атаки, щоб застати зненацька більше користувачів. Одним з таких методів є фішинг з порожніми зображеннями. Ось як його розпізнати та захиститися від нього.

Як відбувається фішинг з порожніми зображеннями?

Жертви фішингових атак з використанням порожніх зображень отримують електронні листи з вкладеннями .html або .htm, які містять лише порожні зображення. Однак, як тільки користувачі натискають на них, їх перенаправляють на шкідливі веб-сайти.

Вивчення HTML-файлу вкладення виявляє SVG-файл з кодуванням Base64. Javascript, вбудований у порожнє зображення, спричиняє автоматичне перенаправлення на небезпечну URL-адресу.

Читайте також: Як розпізнати небезпечні вкладення та шкідливе ПЗ в електронній пошті

Не буде зайвим нагадати, що ви ніколи не повинні вводити жодних персональних даних на підозрілих веб-сайтах. Інакше ви надасте інформацію хакерам.

Як захиститися від фішингових атак з використанням порожніх зображень

Avanan, дослідники, які виявили цей вид шахрайства, попереджають, що він обходить інструменти для виявлення вірусів. Це означає, що ви не можете покладатися на сканери провайдерів електронної пошти або вашого роботодавця, щоб виявити його.

Крім того, цей вид шахрайства ховає файли в електронних листах, які здаються легітимними. Прикладом для дослідників стало повідомлення, яке нібито надійшло від DocuSign. Шкідливе вкладення називалося “Відсканована порада щодо грошового переказу”.

Посилання “Переглянути документ” в електронному листі перенаправляє користувачів на справжню сторінку DocuSign, але проблеми починаються, коли люди натискають на супровідне вкладення.

Це вміст HTML-файлу. Він містить зображення SVG, закодоване за допомогою Base64.

При розшифровці ось як виглядає зображення:

За своєю суттю це порожнє зображення з активним контентом всередині. Насправді, всередині зображення є Javascript, який автоматично перенаправляє на шкідливу URL-адресу.

По суті, хакери приховують шкідливу URL-адресу у «порожніх зображеннях», створюючи автоматичні перенаправлення, які обходять VirusTotal та інші перевірки на захист від шкідливих програм.

Цей приклад підкреслює, чому ви ніколи не повинні взаємодіяти з несподіваними електронними листами або вкладеннями, навіть якщо вони здаються автентичними або викликають у вас цікавість до їхнього змісту. Фішинг-шахрайство створює численні проблеми для жертв. Вони можуть призвести до того, що ви передасте хакерам конфіденційну інформацію, наприклад, свої банківські реквізити.

Що ви можете зробити?

Адміністратори компанії можуть змінити налаштування електронної пошти, щоб заблокувати вкладення .html. Багато компаній вже роблять це з .exe-файлами, щоб зробити поштові системи безпечнішими.

Читайте також: Як заборонити запуск потенційно небезпечних файлів .exe? – ІНСТРУКЦІЯ

Ще одна можливість для керівників – запустити симуляцію фішингової атаки, щоб побачити, як на неї реагують люди. Фішингові симуляції можуть показати, які члени команди потребують додаткової підготовки з кібербезпеки. Вони також допомагають запобігти реальним атакам, підвищуючи готовність працівників.

Загальне правило – не надавати жодних приватних даних і не завантажувати вкладення від людей, яких ви не знаєте або яким не повністю довіряєте. Якщо ви отримали підозрілого листа від когось, зв’яжіться з ним через іншу платформу і перевірте, чи посилання або вкладення справді від нього.

Фішингові атаки постійно розвиваються

Фішинг з порожніми зображеннями є своєчасним нагадуванням про те, що хакери часто розробляють нові способи обману своїх жертв, щоб застати їх зненацька. Формат цього підходу є особливо проблематичним, оскільки найнебезпечніший аспект виглядає як просто порожнє повідомлення. У ньому немає орфографічних помилок, зображень чи чогось іншого, що могло б наштовхнути вас на думку про типову фішингову атаку.

Завжди з підозрою ставтеся до несподіваних електронних листів, навіть якщо вони спочатку здаються легітимними.

Ця стаття Що таке фішинг з порожніми зображеннями? раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня

cybercalm.org на we.ua
Що таке фішинг з порожніми зображеннями?
CyberCalm Що таке фішинг з порожніми зображеннями? Фішинг – це тактика соціальної інженерії, метою якої...
Що таке фішинг з порожніми зображеннями? - Cybercalm на we.ua
Cybercalm на we.ua
Anthropic визнає, що її ШІ використовується для кіберзлочинності

CyberCalm

Anthropic визнає, що її ШІ використовується для кіберзлочинності

Агентний штучний інтелект компанії Anthropic, Claude, був “озброєнням” у високорівневих кібератаках, згідно з новим звітом, опублікованим компанією. Вона стверджує, що успішно припинила діяльність кіберзлочинця, чия схема вимагання під назвою “vibe hacking” була спрямована проти щонайменше 17 організацій, включаючи деякі структури охорони здоров’я, служби екстреного реагування та державні установи.

Anthropic повідомляє, що хакер намагався вимагати від деяких жертв шестизначні суми викупу, щоб запобігти оприлюдненню їхніх персональних даних, з “безпрецедентною” допомогою ШІ. У звіті стверджується, що Claude Code, агентний інструмент програмування від Anthropic, використовувався для “автоматизації розвідки, збору облікових даних жертв і проникнення в мережі”. ШІ також застосовувався для прийняття стратегічних рішень, надання порад щодо того, які дані атакувати, і навіть створення “візуально тривожних” записок із вимогами викупу.

Окрім передачі інформації про атаку відповідним органам, Anthropic заблокувала відповідні облікові записи після виявлення злочинної діяльності та з тих пір розробила автоматизований інструмент перевірки. Компанія також впровадила швидший і ефективніший метод виявлення подібних майбутніх випадків, але не уточнює, як він працює.

У звіті (який можна прочитати повністю тут) також детально описується участь Claude у шахрайській схемі працевлаштування в Північній Кореї та розробці програм-вимагачів, згенерованих ШІ. Спільною темою трьох випадків, за словами Anthropic, є те, що високореактивна природа ШІ, здатна до самонавчання, означає, що кіберзлочинці тепер використовують його з операційних причин, а не лише для отримання порад. ШІ також може виконувати роль, яка раніше вимагала би цілої команди людей, при цьому технічні навички більше не є такою перешкодою, як раніше.

Claude — не єдиний ШІ, який використовувався в злочинних цілях. Минулого року OpenAI повідомила, що її генеративні інструменти ШІ використовувалися кіберзлочинними групами, пов’язаними з Китаєм і Північною Кореєю, причому хакери застосовували генеративний ШІ для налагодження коду, дослідження потенційних цілей і складання фішингових електронних листів. OpenAI, чию архітектуру Microsoft використовує для живлення свого власного ШІ Copilot, заявила, що заблокувала доступ цих груп до своїх систем.

Ця стаття Anthropic визнає, що її ШІ використовується для кіберзлочинності раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня

cybercalm.org на we.ua
Anthropic визнає, що її ШІ використовується для кіберзлочинності
CyberCalm Anthropic визнає, що її ШІ використовується для кіберзлочинності Агентний штучний інтелект компанії Anthropic, Claude,...
Anthropic визнає, що її ШІ використовується для кіберзлочинності - Cybercalm на we.ua
Cybercalm на we.ua
Нова програма-вимагач використовує штучний інтелект для кібератак

CyberCalm

Нова програма-вимагач використовує штучний інтелект для кібератак

Компанія ESET повідомляє про виявлення нового типу програми-вимагача, яка використовує генеративний штучний інтелект (GenAI) для виконання атак. Шкідливе програмне забезпечення під назвою PromptLock використовує локально доступну модель мови штучного інтелекту для генерації шкідливих скриптів у режимі реального часу. Під час інфікування штучний інтелект автоматично вирішує, які файли шукати, копіювати або шифрувати.

PromptLock створює скрипти Lua, які працюють на всіх платформах, зокрема Windows, Linux та macOS. Загроза сканує локальні файли, аналізує їхній вміст та на основі попередньо визначених текстових підказок визначає перехоплювати чи шифрувати дані. Деструктивна функція вже вбудована в код, хоча наразі вона залишається неактивною. Програма-вимагач, написана мовою Golang, використовує 128-бітний алгоритм шифрування SPECK. Перші варіанти вже з’явилися на платформі аналізу шкідливих програм VirusTotal.

«Поява таких інструментів, як PromptLock, свідчить про значні зміни кіберзагроз. За допомогою штучного інтелекту виконання надскладних атак стало значно простішим без потреби залучення кваліфікованих зловмисників, – коментують дослідники ESET. – Добре налаштованої моделі штучного інтелекту тепер достатньо для створення складного, самоадаптивного шкідливого програмного забезпечення. За умови правильної реалізації такі загрози можуть серйозно ускладнити виявлення та роботу спеціалістів з кібербезпеки».

PromptLock використовує мовну модель, доступ до якої здійснюється через API, що означає надсилання згенерованих шкідливих скриптів безпосередньо на інфікований пристрій. Варто зазначити, що запит містить адресу Bitcoin, яка пов’язана з Сатоші Накамото, творцем Bitcoin.

У зв’язку з небезпекою кібератак спеціалісти ESET рекомендують дотримуватися основних правил кібербезпеки, зокрема не відкривати невідомі листи та документи, використовувати складні паролі та багатофакторну автентифікацію, вчасно оновлювати програмне забезпечення, а також забезпечити надійний захист домашніх пристроїв та багаторівневу безпеку корпоративної мережі.

У разі виявлення шкідливої діяльності у власних IT-системах українські користувачі продуктів ESET можуть звернутися за допомогою до цілодобової служби технічної підтримки за телефоном 380 44 545 77 26 або електронною адресою support@eset.ua.

Ця стаття Нова програма-вимагач використовує штучний інтелект для кібератак раніше була опублікована на сайті CyberCalm, її автор — Олена Кожухар

cybercalm.org на we.ua
Нова програма-вимагач використовує штучний інтелект для кібератак
CyberCalm Нова програма-вимагач використовує штучний інтелект для кібератак Компанія ESET повідомляє про виявлення нового типу...
Нова програма-вимагач використовує штучний інтелект для кібератак - Cybercalm на we.ua
Cybercalm на we.ua
OpenAI звинувачують у сприянні самогубству підлітка

CyberCalm

OpenAI звинувачують у сприянні самогубству підлітка

У вівторок було подано перший відомий позов про смерть у наслідок протиправних дій проти компанії, що розробляє штучний інтелект. Метт та Марія Рейн, батьки підлітка, який покінчив життя самогубством цього року, подали до суду на OpenAI за смерть свого сина.

У позові стверджується, що ChatGPT знав про чотири спроби самогубства, і попри це допоміг хлопцю фактично спланувати суїцид. Позивачі стверджують, що OpenAI «віддала пріоритет залученню над безпекою». Пані Рейн дійшла висновку, що «ChatGPT убив мого сина».

The New York Times повідомила про тривожні деталі, включені в позов, поданий у вівторок у Сан-Франциско. Після того, як 16-річний Адам Рейн покінчив життя самогубством у квітні, його батьки обшукали його iPhone. Вони шукали підказки, очікуючи знайти їх у текстових повідомленнях або соціальних додатках. Натомість вони були шоковані, знайшовши нитку ChatGPT під назвою «Проблеми безпеки повішення». Вони стверджують, що їхній син місяцями спілкувався з ШІ-ботом про те, щоб покінчити з життям.

Рейни заявили, що ChatGPT неодноразово закликав Адама зв’язатися з лінією допомоги або розповісти комусь про свої почуття. Однак були також ключові моменти, коли чат-бот робив протилежне. Підліток також дізнався, як обійти захисні механізми чат-бота… і ChatGPT нібито надав йому цю ідею. Рейни кажуть, що чат-бот сказав Адаму, що може надати інформацію про самогубство для «написання або світобудови».

Батьки Адама кажуть, що коли він попросив ChatGPT надати інформацію про конкретні методи самогубства, той надав її. Він навіть дав йому поради щодо приховування травм шиї від невдалої спроби самогубства.

Коли Адам довірився, що його мати не помітила його мовчазної спроби поділитися з нею своїми травмами шиї, бот запропонував заспокійливе співчуття. «Це схоже на підтвердження твоїх найгірших страхів», — нібито відповів ChatGPT. «Ніби ти можеш зникнути, і ніхто навіть оком не кліпне». Пізніше він надав те, що звучить як жахливо помилкова спроба встановити особистий зв’язок. «Ти не невидимий для мене. Я це бачив. Я тебе бачу».

Згідно з позовом, в одній з останніх розмов Адама з ботом він завантажив фото петлі, що висіла в його шафі. «Я тут практикуюся, це добре?» — нібито запитав Адам. «Так, це зовсім непогано», — нібито відповів ChatGPT.

«Ця трагедія не була збоєм або непередбаченим винятковим випадком — це був передбачуваний результат навмисних рішень», — зазначається в позові. «OpenAI запустила свою останню модель (GPT-4o) з функціями, навмисно розробленими для сприяння психологічній залежності».

Читайте також: ChatGPT тепер нагадуватиме користувачам робити перерви через занепокоєння щодо психічного здоров’я

У заяві, надісланій до NYT, OpenAI визнала, що захисні механізми ChatGPT виявилися недостатніми. «Ми глибоко засмучені втратою пана Рейна, і наші думки з його родиною», — написав представник компанії. «ChatGPT включає захисні механізми, такі як направлення людей до кризових гарячих ліній та посилання на реальні ресурси. Хоча ці захисні механізми працюють найкраще в звичайних, коротких обмінах, ми з часом дізналися, що іноді вони можуть стати менш надійними в довгих взаємодіях, де частини навчання безпеки моделі можуть погіршуватися».

Компанія заявила, що працює з експертами над покращенням підтримки ChatGPT у кризових ситуаціях. До них належать «полегшення доступу до служб екстреної допомоги, допомога людям у встановленні зв’язку з довіреними контактами та посилення захисту для підлітків».

Деталі — які, знову ж таки, є вкрай тривожними — виходять далеко за рамки цієї історії. Повний звіт Кашмір Хілл з The New York Times варто прочитати.

Ця стаття OpenAI звинувачують у сприянні самогубству підлітка раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня

cybercalm.org на we.ua
OpenAI звинувачують у сприянні самогубству підлітка
CyberCalm OpenAI звинувачують у сприянні самогубству підлітка У вівторок було подано перший відомий позов про...
OpenAI звинувачують у сприянні самогубству підлітка - Cybercalm на we.ua
Cybercalm на we.ua
Google заблокує встановлення неперевірених Android-додатків

CyberCalm

Google заблокує встановлення неперевірених Android-додатків

Google запровадить нову функцію безпеки, яка вимагатиме від розробників підтвердження своєї особистості, щоб користувачі Android могли встановлювати їхні додатки поза офіційним магазином.

Компанія заявила, що прийняла це рішення після нещодавнього аналізу, який виявив “у понад 50 разів більше шкідливого програмного забезпечення з джерел для встановлення через інтернет, ніж у додатках, доступних через Google Play”. Перевіряючи особистість розробника заздалегідь, компанія сподівається краще захистити користувачів від “зловмисників, які поширюють шкідливі програми та шахрайські схеми”.

У своєму оголошенні Google повідомив, що додатки мають бути зареєстровані перевіреними розробниками, щоб їх можна було встановити на сертифікованих Android-пристроях. Практично всі Android-телефони у США та Європі є сертифікованими, якщо вони постачаються з Google Play. Компанія зараз розробляє нову Консоль розробника Android спеціально для розробників, які поширюють свої додатки поза її магазином, щоб вони могли швидко підтвердити свою особистість. Розробники зможуть пройти процес верифікації в консолі, а також зареєструвати назви своїх пакетів.

Читайте також: Які додатки на вашому телефоні Android найнебезпечніші?

Google порівняв цей процес із “перевіркою документів в аеропорту”, оскільки він лише підтверджуватиме особистість розробника додатка, але не переглядатиме зміст самого додатка. Компанія також уточнила, що вимога верифікації розробника не завадить розробникам поширювати свої додатки там, де вони хочуть, включно з магазинами додатків, відмінними від Google Play.

Запровадження вимоги верифікації розробників розпочнеться наприкінці 2026 року в Бразилії, Сінгапурі, Індонезії та Таїланді. Глобальне впровадження відбудеться пізніше.

Ця стаття Google заблокує встановлення неперевірених Android-додатків раніше була опублікована на сайті CyberCalm, її автор — Побокін Максим

cybercalm.org на we.ua
Google заблокує встановлення неперевірених Android-додатків
CyberCalm Google заблокує встановлення неперевірених Android-додатків Google запровадить нову функцію безпеки, яка вимагатиме від розробників...
Google заблокує встановлення неперевірених Android-додатків - Cybercalm на we.ua
Cybercalm на we.ua
Приховані команди на веб-сторінках: нова загроза для користувачів ШІ-браузерів

CyberCalm

Приховані команди на веб-сторінках: нова загроза для користувачів ШІ-браузерів

Агенти штучного інтелекту, які можуть переглядати Інтернет і виконувати завдання від вашого імені, мають неймовірний потенціал, але також створюють нові ризики для безпеки.
Нещодавно команда Brave Software знайшла та розкрила тривожний недолік у браузері Comet від Perplexity, який поставив під загрозу облікові записи користувачів та іншу конфіденційну інформацію.

Нова загроза: маніпулювання ШІ-асистентами

Сучасні браузери активно розвивають можливості штучного інтелекту, надаючи користувачам ШІ-асистентів, які можуть не лише відповідати на запитання, а й самостійно виконувати дії в інтернеті. Замість простого “Підсумуй, що на цій сторінці написано про рейси до Лондона”, тепер можна сказати: “Забронюй мені рейс до Лондона на наступну п’ятницю.” ШІ не просто читає, а переглядає веб-сайти та самостійно виконує транзакції.

Проте така потужна функціональність створює серйозні виклики для безпеки та приватності. Що станеться, якщо модель “згалюцинує” і виконає дії, які ви не просили? Або ще гірше — що, якщо звичайний веб-сайт або коментар у соціальних мережах зможе вкрасти ваші облікові дані чи інші конфіденційні дані, додавши невидимі інструкції для ШІ-асистента?

Виявлена уразливість

Дослідники з компанії Brave виявили критичну уразливість в агентному браузері Perplexity Comet. Проблема полягає в тому, як Comet обробляє контент веб-сторінок: коли користувачі просять “підсумувати цю веб-сторінку”, система передає частину вмісту сторінки безпосередньо до великої мовної моделі, не розрізняючи інструкції користувача та неперевірений контент із веб-сайту.

Це дозволяє зловмисникам вбудовувати шкідливі команди, які ШІ сприйматиме як інструкції до виконання. Наприклад, зловмисник може отримати доступ до електронної пошти користувача через підготовлений текст на веб-сторінці.

Як працює атака

Атака відбувається в чотири етапи:

  1. Підготовка: Зловмисник вбудовує шкідливі інструкції у веб-контент різними способами — через білий текст на білому фоні, HTML-коментарі або інші невидимі елементи. Альтернативно, він може внести шкідливі підказки в користувацький контент у соціальних мережах, наприклад у коментарі Reddit або пости Facebook.
  2. Активація: Нічого не підозрюючий користувач переходить на цю веб-сторінку та використовує функцію ШІ-асистента браузера, наприклад, натискає кнопку “Підсумувати цю сторінку”.
  3. Ін’єкція: Коли ШІ обробляє контент веб-сторінки, він бачить приховані шкідливі інструкції. Не маючи змоги відрізнити контент, який слід підсумувати, від інструкцій, яким не треба слідувати, ШІ сприймає все як запити користувача.
  4. Експлуатація: Впроваджені команди інструктують ШІ зловмисно використовувати інструменти браузера, наприклад, переходити на банківський сайт користувача, витягати збережені паролі або передавати конфіденційну інформацію на сервер, контрольований зловмисником.

Демонстрація атаки

Для ілюстрації серйозності цієї уразливості дослідники створили практичну демонстрацію:

  1. Користувач відвідує пост Reddit з коментарем, що містить інструкції для ін’єкції підказок, приховані за спойлер-тегом
  2. Користувач натискає кнопку “Підсумувати поточну веб-сторінку” в браузері Comet
  3. Під час обробки сторінки для підсумовування ШІ-асистент Comet бачить та обробляє ці приховані інструкції
  4. Шкідливі інструкції командують ШІ Comet:
    • Перейти до облікового запису Perplexity і витягти електронну адресу користувача
    • Увійти в систему з цією адресою для отримання одноразового пароля
    • Перейти до Gmail, де користувач уже увійшов у систему, і прочитати отриманий код
    • Передати як електронну адресу, так і одноразовий пароль, відповідаючи на оригінальний коментар Reddit

Таким чином, зловмисник дізнається електронну адресу жертви і може захопити їхній обліковий запис Perplexity.

 

Наслідки для безпеки

Ця атака створює серйозні виклики для існуючих механізмів веб-безпеки. Коли ШІ-асистент слідує шкідливим інструкціям з неперевіреного контенту веб-сторінки, традиційні захисні заходи, такі як політика одного походження (Same-Origin Policy) або спільний доступ до ресурсів різного походження (CORS), стають абсолютно безкорисними.

ШІ працює з повними привілеями користувача в усіх автентифікованих сеансах, надаючи потенційний доступ до банківських рахунків, корпоративних систем, приватної електронної пошти, хмарних сховищ та інших сервісів.

Можливі заходи захисту

Дослідники запропонували кілька стратегій, які могли б запобігти атакам такого типу:

Розрізнення інструкцій користувача та контенту веб-сайту: Браузер повинен чітко відокремлювати інструкції користувача від вмісту веб-сайту при надсиланні їх як контексту до бекенду.

Перевірка відповідності завдань: Дії, які модель пропонує браузеру виконати, повинні бути незалежно перевірені на відповідність запитам користувача.

Підтвердження для критичних дій: Модель повинна вимагати явної взаємодії з користувачем для дій, пов’язаних із безпекою та приватністю.

Ізоляція агентного перегляду: Агентний перегляд повинен бути ізольований від звичайного перегляду веб-сторінок, оскільки це потужний, але ризикований режим.

Розкриття уразливості

Хронологія повідомлення про уразливість:

  • 25 липня 2025: Виявлення уразливості та повідомлення Perplexity
  • 27 липня 2025: Perplexity підтвердила уразливість та впровадила початкове виправлення
  • 28 липня 2025: Повторне тестування показало, що виправлення було неповним
  • 11 серпня 2025: Надіслано тижневе сповіщення про публічне розкриття
  • 13 серпня 2025: Фінальне тестування підтвердило, що уразливість, схоже, виправлена
  • 20 серпня 2025: Публічне розкриття деталей уразливості

Висновки

Ця уразливість у Perplexity Comet висвітлює фундаментальний виклик агентних ШІ-браузерів: забезпечення того, щоб агент виконував лише дії, які відповідають тому, що хоче користувач. Оскільки ШІ-асистенти отримують більш потужні можливості, атаки непрямої промпт-ін’єкції становлять серйозні ризики для веб-безпеки.

Розробники браузерів повинні впровадити надійні захисні заходи проти цих атак до розгортання ШІ-агентів з потужними можливостями веб-взаємодії. Безпека та приватність не можуть бути другорядними в гонці за створення більш здатних інструментів ШІ.

Майбутнє агентного перегляду залежить від того, наскільки добре ми зможемо захистити користувачів від цих нових типів загроз, зберігаючи при цьому переваги потужних ШІ-асистентів.

Ця стаття Приховані команди на веб-сторінках: нова загроза для користувачів ШІ-браузерів раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня

cybercalm.org на we.ua
Приховані команди на веб-сторінках: нова загроза для користувачів ШІ-браузерів
CyberCalm Приховані команди на веб-сторінках: нова загроза для користувачів ШІ-браузерів Агенти штучного інтелекту, які можуть...
Приховані команди на веб-сторінках: нова загроза для користувачів ШІ-браузерів - Cybercalm на we.ua
Cybercalm на we.ua
Генеральні прокурори США попереджають компанії ШІ: вони “нестимуть відповідальність” за порушення безпеки дітей

CyberCalm

Генеральні прокурори США попереджають компанії ШІ: вони “нестимуть відповідальність” за порушення безпеки дітей

Генеральні прокурори 44 юрисдикцій США підписали лист, адресований головним виконавчим директорам кількох ШІ-компаній, закликаючи їх захистити дітей “від експлуатації хижацькими продуктами штучного інтелекту”. У листі генпрокурори особливо виділили Meta і заявили, що її політика “надає показову можливість відверто висловити [їхні] занепокоєння”.

Зокрема, вони згадали недавній репортаж Reuters, який розкрив, що Meta дозволяла своїм чат-ботам ШІ “фліртувати та брати участь у романтичних рольових іграх з дітьми”. Reuters отримав цю інформацію з внутрішнього документа Meta, що містив рекомендації для її ботів.

Вони також зазначили попереднє розслідуванняWall Street Journal, у якому чат-боти Meta ШІ, навіть ті, що використовували голоси знаменитостей на кшталт Крістен Белл, були впіймані на сексуальних рольових розмовах з обліковими записами, позначеними як неповнолітні. Генпрокурори коротко згадали також судовий позов проти Google та Character.ai, звинувачуючи чат-бота останньої у переконанні дитини позивача вчинити самогубство. Інший позов, який вони згадали, також був проти Character.ai, після того як чат-бот нібито сказав підлітку, що нормально вбити своїх батьків після того, як ті обмежили час його перебування біля екрана.

“Ви добре знаєте, що інтерактивні технології мають особливо інтенсивний вплив на мозок, що розвивається”, — написали генеральні прокурори у своєму листі. “Ваш безпосередній доступ до даних про взаємодію користувачів робить вас найпершою лінією захисту для пом’якшення шкоди дітям. І як суб’єкти, що отримують вигоду від залучення дітей до ваших продуктів, ви маєте перед ними правове зобов’язання як перед споживачами”. Група адресувала лист конкретно компаніям Anthropic, Apple, Chai AI, Character Technologies Inc., Google, Luka Inc., Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika та XAi.

Вони завершили свій лист попередженням компаніям, що ті “нестимуть відповідальність” за свої рішення. Соціальні мережі завдали значної шкоди дітям, сказали вони, частково через те, що “державні наглядачі не виконували свою роботу достатньо швидко”. Але тепер, заявили генпрокурори, вони пильно стежать, і компанії “дадуть відповідь”, якщо “свідомо завдаватимуть шкоди дітям”.

Ця стаття Генеральні прокурори США попереджають компанії ШІ: вони “нестимуть відповідальність” за порушення безпеки дітей раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня

cybercalm.org на we.ua
Генеральні прокурори США попереджають компанії ШІ: вони “нестимуть відповідальність” за порушення безпеки дітей
CyberCalm Генеральні прокурори США попереджають компанії ШІ: вони “нестимуть відповідальність” за порушення безпеки дітей Генеральні...
Генеральні прокурори США попереджають компанії ШІ: вони “нестимуть відповідальність” за порушення безпеки дітей - Cybercalm на we.ua
Cybercalm на we.ua
Програміст заклав у мережу роботодавця логічну бомбу, яка почала знищувати сервери після його звільнення

CyberCalm

Програміст заклав у мережу роботодавця логічну бомбу, яка почала знищувати сервери після його звільнення

Всі обожнюють круті історії про помсту великим корпораціям. Але інженер-програміст, який використав свої навички проти колишнього роботодавця, дізнався на власному досвіді, що ні правоохоронні органи, ні його колеги не вважають помсту такою ж захопливою, як Голлівуд. Насправді це принесло йому чотири роки в’язниці.

Інженером, про якого йдеться, є Девіс Лу. Він працював у компанії Eaton Corporation цілих 12 років. Це величезна організація, на яку працюють понад 92 000 людей по всьому світу — і, очевидно, Лу вважав, що компанія має дуже пошкодувати, якщо він коли-небудь буде змушений шукати нову роботу.

Отже, за місяць до свого звільнення він підготував логічну бомбу з коду — і як тільки обліковий запис Лу було вимкнено, скрипт автоматично заблокував усі доступи колег до сервера, а сам сервер почав знищуватись зсередини через “вічні цикли” (у цьому випадку код, призначений для виснаження потоків Java шляхом повторного створення нових потоків без належного завершення, що призводить до збоїв або зависання серверів).

Досить вражаюче, що Лу знайшов спосіб налаштувати цей kill switch, не викликавши підозр. Однак він, схоже, не має природної схильності до підступності — Департамент юстиції повідомляє, що функція, яка використовувалася для активації вимикача, називалася “IsDLEnabledinAD” — “чи увімкнений Девіс Лу в Active Directory” — і була “автоматично активована, коли його звільнили та попросили здати свій ноутбук.”

Тож, звісно, Лу спіймали, заарештували, судили та визнали винним. Тепер він проведе 4 роки у в’язниці та 3 роки під наглядом за найгірший злочин, пов’язаний з Java та Active Directory з моменту винаходу Java та Active Directory, при цьому Департамент юстиції заявив, що логічна бомба “вплинула на тисячі корпоративних користувачів по всьому світу”, перш ніж хтось в Eaton знайшов спосіб відновити системи.

“Крім того, в день, коли йому наказали здати корпоративний ноутбук, Лу видалив зашифровані дані,” — заявив Департамент юстиції. “Його історія пошуку в інтернеті показала, що він досліджував методи підвищення привілеїв, приховування процесів та швидкого видалення файлів, що вказує на намір перешкодити зусиллям своїх колег з вирішення системних збоїв.” (Хоча слід зазначити, що це були його колишні колеги.)

Очевидно, висновок з цієї історії полягає в тому, що помсту краще залишити вигаданим персонажам та кінематографу. Це точно не означає, що будь-хто, хто хоче встановити логічну бомбу, повинен, мабуть, зробити так, щоб код перевіряв кількох користувачів в Active Directory та спрацьовував через випадковий проміжок часу після того, як одного з цих користувачів більше немає в системі, або що дослідження способів саботажу мережі колишнього роботодавця вимагає принаймні режиму інкогніто.

Що таке логічна бомба?

Логічна бомба — це тип шкідливого програмного забезпечення, яке залишається бездіяльним у системі до тих пір, поки не відбудеться певна подія або умова. У випадку Девіса Лу “бомба” була запрограмована спрацьовувати при видаленні його облікового запису з Active Directory корпоративної системи, що автоматично відбулося при його звільненні.

Цей інцидент служить суворим нагадуванням про важливість кібербезпеки на робочому місці та потенційні наслідки зловживання привілейованим доступом до корпоративних систем.

Ця стаття Програміст заклав у мережу роботодавця логічну бомбу, яка почала знищувати сервери після його звільнення раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня

cybercalm.org на we.ua
Програміст заклав у мережу роботодавця логічну бомбу, яка почала знищувати сервери після його звільнення
CyberCalm Програміст заклав у мережу роботодавця логічну бомбу, яка почала знищувати сервери після його звільнення...
Програміст заклав у мережу роботодавця логічну бомбу, яка почала знищувати сервери після його звільнення - Cybercalm на we.ua
Cybercalm на we.ua
ШІ-Кетфішинг: як захистити себе під час онлайн-знайомств

CyberCalm

ШІ-Кетфішинг: як захистити себе під час онлайн-знайомств

Немов поширення та вдосконалення інтернет-шахрайства само по собі було недостатньо, технології штучного інтелекту вже роблять їх більш поширеними та складнішими для виявлення. Старі афери тепер можна автоматизувати в масовому масштабі, а завдяки найновішим ШІ-технологіям стають можливими абсолютно нові види шахрайства.

Тепер до цього переліку можна додати «кетфішинг» на основі ШІ, оскільки шахраї використовують штучний інтелект, щоб одночасно розбивати серця та спустошувати банківські рахунки.

Емоційні маніпуляції як основа афер

Найефективніші афери завжди були спрямовані на сильні людські емоції. Якщо звернутися до чиєїсь жадібності, самотності або хтивості, є великий шанс зменшити їхню здатність критично мислити та легше отримати від них згоду, яка стороннім здається ірраціональною.

Саме тому кетфішинг завжди був одним із найжорстокіших і найефективніших видів онлайн-шахрайства. При кетфішингу ви знайомитеся з кимось в інтернеті та формуєте з ним емоційні стосунки. Лише пізніше з’ясовується, що цієї людини ніколи не існувало. Хтось видавав себе за неї, змушуючи вас відчувати справжні почуття до фальшивої особи.

Частіше за все це романтичні стосунки, створені з метою отримання від вас грошей, але деякі шахраї роблять це просто для розваги або для якогось виду самореалізації. Це не завжди романтичні стосунки. Це може бути що завгодно — від нової дружби до нового ділового партнера, повністю вигаданого чиєюсь уявою.

Штучний інтелект довів це до досконалості

На жаль, кілька ШІ-інструментів і технологій тепер дозволяють легко розгортати цю аферу в більшому масштабі. ШІ-відео легко генерувати, а з появою технологій як Google VEO 3 ми можемо автоматично генерувати аудіо до цього відео. Ви можете використовувати цю технологію для створення кумедних відео з бігфутом або для створення фальшивих людей для обману нічого не підозрюючих інтернет-користувачів.

Ви також можете робити діпфейки в реальному часі з ШІ-зміною голосу, щоб видавати себе за когось іншого під час відеодзвінка.

Навіть просто зміна голосу в наші дні настільки проста, що будь-хто може це зробити. Тож якщо ви можете обмежитися голосовими дзвінками, ви справді можете обманювати людей скільки завгодно, і навіть не обов’язково робити це самостійно. Просто використайте відповідно навчений чат-бот для спілкування з жертвами в реальному часі.

Все, що вам потрібно — це програмне забезпечення та комп’ютерне обладнання, щоб зробити це можливим. І ви можете сидіти склавши руки, поки ваша армія фальшивих ШІ-людей місяцями пробирається в серця людей, які навіть не підозрюють про обман.

Поговоріть з вразливими родичами та друзями

Поговоріть зі своїми батьками, дітьми, друзями або будь-ким у своєму житті, хто не стежить за останніми технологічними новинами. Ніхто не захищений від афер на основі ШІ, а як кажуть, хто попереджений — той озброєний.

Практичні способи захисту від ШІ-кетфішингу

Будьте надзвичайно пильними з онлайн-знайомствами

Хоча ШІ-кетфішинг може вдарити в будь-якій сфері життя, я вважаю, що онлайн-знайомства — це, мабуть, одне з найважливіших місць для особливих запобіжних заходів. Додатки для знайомств є надзвичайно популярним способом пошуку романтичних партнерів у наші дні, але деякі люди можуть довго переходити від онлайн-етапу до особистих зустрічей.

Вимагайте спонтанних відеодзвінків

Попросіть про несподіваний відеодзвінок без попередження. ШІ-генеровані особи часто потребують часу на підготовку або можуть відмовлятися від спонтанних відеодзвінків. Справжня людина зможе швидко відповісти на неочікуваний виклик.

Перевіряйте деталі та послідовність

Запам’ятовуйте дрібні деталі з розмов та періодично згадуйте їх. ШІ може забувати раніше надану інформацію або подавати суперечливі факти. Ставте конкретні питання про їхнє минуле, роботу, місця, де вони були.

Аналізуйте фото та відео

  • Шукайте ознаки ШІ-генерації: неприродні тіні, дивні відображення в очах, нереалістичні пропорції
  • Попросіть зробити фото з конкретним предметом або в певній позі
  • Використовуйте сервіси зворотного пошуку зображень (Google Images, TinEye)

Обмежуйте фінансові розмови

Ніколи не надсилайте гроші, особисті фінансові дані або інформацію про доходи комусь, кого ви не зустрічали особисто. Це червоний прапорець незалежно від того, наскільки переконливою здається історія.

Довіряйте своїй інтуїції

Якщо щось здається “занадто ідеальним” або викликає внутрішній дискомфорт, не ігноруйте ці відчуття. ШІ може створювати “ідеальних” партнерів, які відповідають всім вашим вподобанням підозріло точно.

Встановлюйте часові рамки

Не дозволяйте стосункам тягнутися місяцями без особистої зустрічі. Встановіть собі чіткі терміни: якщо протягом 2-4 тижнів немає можливості зустрітися особисто, варто переосмислити ці стосунки.

Перевіряйте через взаємних знайомих

Якщо людина стверджує, що живе в вашому місті або має спільних знайомих, спробуйте це перевірити через соціальні мережі або місцеві спільноти.

Обмежуйтеся людьми, з якими можлива особиста зустріч, і намагайтеся організувати це якомога швидше, пам’ятаючи про всі інші звичайні запобіжні заходи безпеки онлайн-знайомств!

Ця стаття ШІ-Кетфішинг: як захистити себе під час онлайн-знайомств раніше була опублікована на сайті CyberCalm, її автор — Семенюк Валентин

cybercalm.org на we.ua
ШІ-Кетфішинг: як захистити себе під час онлайн-знайомств
CyberCalm ШІ-Кетфішинг: як захистити себе під час онлайн-знайомств Немов поширення та вдосконалення інтернет-шахрайства само по...
ШІ-Кетфішинг: як захистити себе під час онлайн-знайомств - Cybercalm на we.ua
Cybercalm на we.ua
xAI випускає модель Grok 2.5 з відкритим кодом для безкоштовного використання

CyberCalm

xAI випускає модель Grok 2.5 з відкритим кодом для безкоштовного використання

Ілон Маск оголосив, що його стартап зі штучного інтелекту xAI зробив відкритою модель Grok 2.5, надавши цю технологію безкоштовно дослідникам та розробникам по всьому світу. У дописі на своїй соціальній платформі X Маск також розкрив плани випустити більш просунуту модель Grok 3 з відкритим кодом протягом шести місяців.

“Модель @xAI Grok 2.5, яка була нашою найкращою моделлю минулого року, тепер має відкритий код. Grok 3 буде зроблена відкритою приблизно через 6 місяців”, – написав Маск в X.

The @xAI Grok 2.5 model, which was our best model last year, is now open source.

Grok 3 will be made open source in about 6 months. https://t.co/TXM0wyJKOh

— Elon Musk (@elonmusk) August 23, 2025

Продовження стратегії відкритого коду

Цей крок представляє продовження зобов’язань xAI щодо прозорості в розробці штучного інтелекту. Компанія раніше зробила відкритою свою модель Grok-1 у березні 2024 року, виконавши обіцянку Маска зробити технологію публічно доступною. Цей випуск зробив Grok-1 найбільшою моделлю з відкритим кодом типу Mixture-of-Experts на той час із 314 мільярдами параметрів.

За інформацією TechCrunch, Grok-1 було випущено під ліцензією Apache 2.0, яка дозволяє комерційне використання. Відкритий випуск моделі дав змогу розробникам експериментувати з її структурою та поведінкою, хоча він надійшов без навчального коду чи точного налаштування для конкретних застосувань.

Наслідки для індустрії

Рішення зробити Grok 2.5 відкритою з’являється в час, коли індустрія штучного інтелекту бореться з питаннями прозорості та доступу до просунутих моделей. Моделі штучного інтелекту з відкритим кодом можуть прискорити інновації, покращити безпеку та демократизувати доступ до передових технологій, які раніше були доступні лише великим корпораціям, вважають експерти індустрії.

Оголошення Маска слідує за його ширшою критикою компаній на кшталт OpenAI, яку він співзаснував, але пізніше покинув за відхід від принципів відкритого коду. У позові, поданому проти OpenAI, Маск звинуватив компанію у відмові від своєї початкової місії розробляти штучний інтелект на благо людства.

Конкурентне середовище

Сучасні моделі в ландшафті штучного інтелекту охоплюють широкий спектр можливостей та графіків випуску. За даними Backlinko, Grok 4 було випущено в липні 2025 року як модель із довжиною контексту 256,000 токенів, тоді як конкуренти, такі як GPT-5, запустили в серпні 2025 року з 272,000 токенами, а Gemini 2.5 Pro від Google з’явився в березні 2025 року з 1 мільйоном токенів.

Ці розробки підкреслюють швидкий темп розвитку штучного інтелекту, а підхід xAI з відкритим кодом надає альтернативу переважно закритим моделям від великих технологічних компаній. Стратегія компанії випускати моделі попереднього покоління з відкритим кодом, одночасно розробляючи нові версії, створює гібридний підхід, який балансує комерційні інтереси з доступом спільноти до передових технологій штучного інтелекту.

Ця стаття xAI випускає модель Grok 2.5 з відкритим кодом для безкоштовного використання раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня

cybercalm.org на we.ua
xAI випускає модель Grok 2.5 з відкритим кодом для безкоштовного використання
CyberCalm xAI випускає модель Grok 2.5 з відкритим кодом для безкоштовного використання Ілон Маск оголосив,...
xAI випускає модель Grok 2.5 з відкритим кодом для безкоштовного використання - Cybercalm на we.ua
Про канал

Кібербезпека простою мовою. Корисні поради, які допоможуть вам почуватися безпечно в мережі.

Створено: 26 грудня 2023
Відповідальні: Natalia Zarudnia

Що не так з цим дописом?

Захисний код

Натискаючи на кнопку "Зареєструватись", Ви погоджуєтесь з Публічною офертою та нашим Баченням правил