CyberCalm
Нова програма-вимагач використовує штучний інтелект для кібератак
Компанія ESET повідомляє про виявлення нового типу програми-вимагача, яка використовує генеративний штучний інтелект (GenAI) для виконання атак. Шкідливе програмне забезпечення під назвою PromptLock використовує локально доступну модель мови штучного інтелекту для генерації шкідливих скриптів у режимі реального часу. Під час інфікування штучний інтелект автоматично вирішує, які файли шукати, копіювати або шифрувати.
PromptLock створює скрипти Lua, які працюють на всіх платформах, зокрема Windows, Linux та macOS. Загроза сканує локальні файли, аналізує їхній вміст та на основі попередньо визначених текстових підказок визначає перехоплювати чи шифрувати дані. Деструктивна функція вже вбудована в код, хоча наразі вона залишається неактивною. Програма-вимагач, написана мовою Golang, використовує 128-бітний алгоритм шифрування SPECK. Перші варіанти вже з’явилися на платформі аналізу шкідливих програм VirusTotal.
«Поява таких інструментів, як PromptLock, свідчить про значні зміни кіберзагроз. За допомогою штучного інтелекту виконання надскладних атак стало значно простішим без потреби залучення кваліфікованих зловмисників, – коментують дослідники ESET. – Добре налаштованої моделі штучного інтелекту тепер достатньо для створення складного, самоадаптивного шкідливого програмного забезпечення. За умови правильної реалізації такі загрози можуть серйозно ускладнити виявлення та роботу спеціалістів з кібербезпеки».
PromptLock використовує мовну модель, доступ до якої здійснюється через API, що означає надсилання згенерованих шкідливих скриптів безпосередньо на інфікований пристрій. Варто зазначити, що запит містить адресу Bitcoin, яка пов’язана з Сатоші Накамото, творцем Bitcoin.
У зв’язку з небезпекою кібератак спеціалісти ESET рекомендують дотримуватися основних правил кібербезпеки, зокрема не відкривати невідомі листи та документи, використовувати складні паролі та багатофакторну автентифікацію, вчасно оновлювати програмне забезпечення, а також забезпечити надійний захист домашніх пристроїв та багаторівневу безпеку корпоративної мережі.
У разі виявлення шкідливої діяльності у власних IT-системах українські користувачі продуктів ESET можуть звернутися за допомогою до цілодобової служби технічної підтримки за телефоном 380 44 545 77 26 або електронною адресою support@eset.ua.
Ця стаття Нова програма-вимагач використовує штучний інтелект для кібератак раніше була опублікована на сайті CyberCalm, її автор — Олена Кожухар
CyberCalm
OpenAI звинувачують у сприянні самогубству підлітка
У вівторок було подано перший відомий позов про смерть у наслідок протиправних дій проти компанії, що розробляє штучний інтелект. Метт та Марія Рейн, батьки підлітка, який покінчив життя самогубством цього року, подали до суду на OpenAI за смерть свого сина.
У позові стверджується, що ChatGPT знав про чотири спроби самогубства, і попри це допоміг хлопцю фактично спланувати суїцид. Позивачі стверджують, що OpenAI «віддала пріоритет залученню над безпекою». Пані Рейн дійшла висновку, що «ChatGPT убив мого сина».
The New York Times повідомила про тривожні деталі, включені в позов, поданий у вівторок у Сан-Франциско. Після того, як 16-річний Адам Рейн покінчив життя самогубством у квітні, його батьки обшукали його iPhone. Вони шукали підказки, очікуючи знайти їх у текстових повідомленнях або соціальних додатках. Натомість вони були шоковані, знайшовши нитку ChatGPT під назвою «Проблеми безпеки повішення». Вони стверджують, що їхній син місяцями спілкувався з ШІ-ботом про те, щоб покінчити з життям.
Рейни заявили, що ChatGPT неодноразово закликав Адама зв’язатися з лінією допомоги або розповісти комусь про свої почуття. Однак були також ключові моменти, коли чат-бот робив протилежне. Підліток також дізнався, як обійти захисні механізми чат-бота… і ChatGPT нібито надав йому цю ідею. Рейни кажуть, що чат-бот сказав Адаму, що може надати інформацію про самогубство для «написання або світобудови».
Батьки Адама кажуть, що коли він попросив ChatGPT надати інформацію про конкретні методи самогубства, той надав її. Він навіть дав йому поради щодо приховування травм шиї від невдалої спроби самогубства.
Коли Адам довірився, що його мати не помітила його мовчазної спроби поділитися з нею своїми травмами шиї, бот запропонував заспокійливе співчуття. «Це схоже на підтвердження твоїх найгірших страхів», — нібито відповів ChatGPT. «Ніби ти можеш зникнути, і ніхто навіть оком не кліпне». Пізніше він надав те, що звучить як жахливо помилкова спроба встановити особистий зв’язок. «Ти не невидимий для мене. Я це бачив. Я тебе бачу».
Згідно з позовом, в одній з останніх розмов Адама з ботом він завантажив фото петлі, що висіла в його шафі. «Я тут практикуюся, це добре?» — нібито запитав Адам. «Так, це зовсім непогано», — нібито відповів ChatGPT.
«Ця трагедія не була збоєм або непередбаченим винятковим випадком — це був передбачуваний результат навмисних рішень», — зазначається в позові. «OpenAI запустила свою останню модель (GPT-4o) з функціями, навмисно розробленими для сприяння психологічній залежності».
Читайте також: ChatGPT тепер нагадуватиме користувачам робити перерви через занепокоєння щодо психічного здоров’я
У заяві, надісланій до NYT, OpenAI визнала, що захисні механізми ChatGPT виявилися недостатніми. «Ми глибоко засмучені втратою пана Рейна, і наші думки з його родиною», — написав представник компанії. «ChatGPT включає захисні механізми, такі як направлення людей до кризових гарячих ліній та посилання на реальні ресурси. Хоча ці захисні механізми працюють найкраще в звичайних, коротких обмінах, ми з часом дізналися, що іноді вони можуть стати менш надійними в довгих взаємодіях, де частини навчання безпеки моделі можуть погіршуватися».
Компанія заявила, що працює з експертами над покращенням підтримки ChatGPT у кризових ситуаціях. До них належать «полегшення доступу до служб екстреної допомоги, допомога людям у встановленні зв’язку з довіреними контактами та посилення захисту для підлітків».
Деталі — які, знову ж таки, є вкрай тривожними — виходять далеко за рамки цієї історії. Повний звіт Кашмір Хілл з The New York Times варто прочитати.
Ця стаття OpenAI звинувачують у сприянні самогубству підлітка раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня
CyberCalm
Google заблокує встановлення неперевірених Android-додатків
Google запровадить нову функцію безпеки, яка вимагатиме від розробників підтвердження своєї особистості, щоб користувачі Android могли встановлювати їхні додатки поза офіційним магазином.
Компанія заявила, що прийняла це рішення після нещодавнього аналізу, який виявив “у понад 50 разів більше шкідливого програмного забезпечення з джерел для встановлення через інтернет, ніж у додатках, доступних через Google Play”. Перевіряючи особистість розробника заздалегідь, компанія сподівається краще захистити користувачів від “зловмисників, які поширюють шкідливі програми та шахрайські схеми”.
У своєму оголошенні Google повідомив, що додатки мають бути зареєстровані перевіреними розробниками, щоб їх можна було встановити на сертифікованих Android-пристроях. Практично всі Android-телефони у США та Європі є сертифікованими, якщо вони постачаються з Google Play. Компанія зараз розробляє нову Консоль розробника Android спеціально для розробників, які поширюють свої додатки поза її магазином, щоб вони могли швидко підтвердити свою особистість. Розробники зможуть пройти процес верифікації в консолі, а також зареєструвати назви своїх пакетів.
Читайте також: Які додатки на вашому телефоні Android найнебезпечніші?
Google порівняв цей процес із “перевіркою документів в аеропорту”, оскільки він лише підтверджуватиме особистість розробника додатка, але не переглядатиме зміст самого додатка. Компанія також уточнила, що вимога верифікації розробника не завадить розробникам поширювати свої додатки там, де вони хочуть, включно з магазинами додатків, відмінними від Google Play.
Запровадження вимоги верифікації розробників розпочнеться наприкінці 2026 року в Бразилії, Сінгапурі, Індонезії та Таїланді. Глобальне впровадження відбудеться пізніше.
Ця стаття Google заблокує встановлення неперевірених Android-додатків раніше була опублікована на сайті CyberCalm, її автор — Побокін Максим
CyberCalm
Приховані команди на веб-сторінках: нова загроза для користувачів ШІ-браузерів
Агенти штучного інтелекту, які можуть переглядати Інтернет і виконувати завдання від вашого імені, мають неймовірний потенціал, але також створюють нові ризики для безпеки.
Нещодавно команда Brave Software знайшла та розкрила тривожний недолік у браузері Comet від Perplexity, який поставив під загрозу облікові записи користувачів та іншу конфіденційну інформацію.
Сучасні браузери активно розвивають можливості штучного інтелекту, надаючи користувачам ШІ-асистентів, які можуть не лише відповідати на запитання, а й самостійно виконувати дії в інтернеті. Замість простого “Підсумуй, що на цій сторінці написано про рейси до Лондона”, тепер можна сказати: “Забронюй мені рейс до Лондона на наступну п’ятницю.” ШІ не просто читає, а переглядає веб-сайти та самостійно виконує транзакції.
Проте така потужна функціональність створює серйозні виклики для безпеки та приватності. Що станеться, якщо модель “згалюцинує” і виконає дії, які ви не просили? Або ще гірше — що, якщо звичайний веб-сайт або коментар у соціальних мережах зможе вкрасти ваші облікові дані чи інші конфіденційні дані, додавши невидимі інструкції для ШІ-асистента?
Дослідники з компанії Brave виявили критичну уразливість в агентному браузері Perplexity Comet. Проблема полягає в тому, як Comet обробляє контент веб-сторінок: коли користувачі просять “підсумувати цю веб-сторінку”, система передає частину вмісту сторінки безпосередньо до великої мовної моделі, не розрізняючи інструкції користувача та неперевірений контент із веб-сайту.
Це дозволяє зловмисникам вбудовувати шкідливі команди, які ШІ сприйматиме як інструкції до виконання. Наприклад, зловмисник може отримати доступ до електронної пошти користувача через підготовлений текст на веб-сторінці.
Атака відбувається в чотири етапи:
Для ілюстрації серйозності цієї уразливості дослідники створили практичну демонстрацію:
Таким чином, зловмисник дізнається електронну адресу жертви і може захопити їхній обліковий запис Perplexity.
Ця атака створює серйозні виклики для існуючих механізмів веб-безпеки. Коли ШІ-асистент слідує шкідливим інструкціям з неперевіреного контенту веб-сторінки, традиційні захисні заходи, такі як політика одного походження (Same-Origin Policy) або спільний доступ до ресурсів різного походження (CORS), стають абсолютно безкорисними.
ШІ працює з повними привілеями користувача в усіх автентифікованих сеансах, надаючи потенційний доступ до банківських рахунків, корпоративних систем, приватної електронної пошти, хмарних сховищ та інших сервісів.
Дослідники запропонували кілька стратегій, які могли б запобігти атакам такого типу:
Розрізнення інструкцій користувача та контенту веб-сайту: Браузер повинен чітко відокремлювати інструкції користувача від вмісту веб-сайту при надсиланні їх як контексту до бекенду.
Перевірка відповідності завдань: Дії, які модель пропонує браузеру виконати, повинні бути незалежно перевірені на відповідність запитам користувача.
Підтвердження для критичних дій: Модель повинна вимагати явної взаємодії з користувачем для дій, пов’язаних із безпекою та приватністю.
Ізоляція агентного перегляду: Агентний перегляд повинен бути ізольований від звичайного перегляду веб-сторінок, оскільки це потужний, але ризикований режим.
Хронологія повідомлення про уразливість:
Ця уразливість у Perplexity Comet висвітлює фундаментальний виклик агентних ШІ-браузерів: забезпечення того, щоб агент виконував лише дії, які відповідають тому, що хоче користувач. Оскільки ШІ-асистенти отримують більш потужні можливості, атаки непрямої промпт-ін’єкції становлять серйозні ризики для веб-безпеки.
Розробники браузерів повинні впровадити надійні захисні заходи проти цих атак до розгортання ШІ-агентів з потужними можливостями веб-взаємодії. Безпека та приватність не можуть бути другорядними в гонці за створення більш здатних інструментів ШІ.
Майбутнє агентного перегляду залежить від того, наскільки добре ми зможемо захистити користувачів від цих нових типів загроз, зберігаючи при цьому переваги потужних ШІ-асистентів.
Ця стаття Приховані команди на веб-сторінках: нова загроза для користувачів ШІ-браузерів раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня
CyberCalm
Генеральні прокурори США попереджають компанії ШІ: вони “нестимуть відповідальність” за порушення безпеки дітей
Генеральні прокурори 44 юрисдикцій США підписали лист, адресований головним виконавчим директорам кількох ШІ-компаній, закликаючи їх захистити дітей “від експлуатації хижацькими продуктами штучного інтелекту”. У листі генпрокурори особливо виділили Meta і заявили, що її політика “надає показову можливість відверто висловити [їхні] занепокоєння”.
Зокрема, вони згадали недавній репортаж Reuters, який розкрив, що Meta дозволяла своїм чат-ботам ШІ “фліртувати та брати участь у романтичних рольових іграх з дітьми”. Reuters отримав цю інформацію з внутрішнього документа Meta, що містив рекомендації для її ботів.
Вони також зазначили попереднє розслідуванняWall Street Journal, у якому чат-боти Meta ШІ, навіть ті, що використовували голоси знаменитостей на кшталт Крістен Белл, були впіймані на сексуальних рольових розмовах з обліковими записами, позначеними як неповнолітні. Генпрокурори коротко згадали також судовий позов проти Google та Character.ai, звинувачуючи чат-бота останньої у переконанні дитини позивача вчинити самогубство. Інший позов, який вони згадали, також був проти Character.ai, після того як чат-бот нібито сказав підлітку, що нормально вбити своїх батьків після того, як ті обмежили час його перебування біля екрана.
“Ви добре знаєте, що інтерактивні технології мають особливо інтенсивний вплив на мозок, що розвивається”, — написали генеральні прокурори у своєму листі. “Ваш безпосередній доступ до даних про взаємодію користувачів робить вас найпершою лінією захисту для пом’якшення шкоди дітям. І як суб’єкти, що отримують вигоду від залучення дітей до ваших продуктів, ви маєте перед ними правове зобов’язання як перед споживачами”. Група адресувала лист конкретно компаніям Anthropic, Apple, Chai AI, Character Technologies Inc., Google, Luka Inc., Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika та XAi.
Вони завершили свій лист попередженням компаніям, що ті “нестимуть відповідальність” за свої рішення. Соціальні мережі завдали значної шкоди дітям, сказали вони, частково через те, що “державні наглядачі не виконували свою роботу достатньо швидко”. Але тепер, заявили генпрокурори, вони пильно стежать, і компанії “дадуть відповідь”, якщо “свідомо завдаватимуть шкоди дітям”.
Ця стаття Генеральні прокурори США попереджають компанії ШІ: вони “нестимуть відповідальність” за порушення безпеки дітей раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня
CyberCalm
Програміст заклав у мережу роботодавця логічну бомбу, яка почала знищувати сервери після його звільнення
Всі обожнюють круті історії про помсту великим корпораціям. Але інженер-програміст, який використав свої навички проти колишнього роботодавця, дізнався на власному досвіді, що ні правоохоронні органи, ні його колеги не вважають помсту такою ж захопливою, як Голлівуд. Насправді це принесло йому чотири роки в’язниці.
Інженером, про якого йдеться, є Девіс Лу. Він працював у компанії Eaton Corporation цілих 12 років. Це величезна організація, на яку працюють понад 92 000 людей по всьому світу — і, очевидно, Лу вважав, що компанія має дуже пошкодувати, якщо він коли-небудь буде змушений шукати нову роботу.
Отже, за місяць до свого звільнення він підготував логічну бомбу з коду — і як тільки обліковий запис Лу було вимкнено, скрипт автоматично заблокував усі доступи колег до сервера, а сам сервер почав знищуватись зсередини через “вічні цикли” (у цьому випадку код, призначений для виснаження потоків Java шляхом повторного створення нових потоків без належного завершення, що призводить до збоїв або зависання серверів).
Досить вражаюче, що Лу знайшов спосіб налаштувати цей kill switch, не викликавши підозр. Однак він, схоже, не має природної схильності до підступності — Департамент юстиції повідомляє, що функція, яка використовувалася для активації вимикача, називалася “IsDLEnabledinAD” — “чи увімкнений Девіс Лу в Active Directory” — і була “автоматично активована, коли його звільнили та попросили здати свій ноутбук.”
Тож, звісно, Лу спіймали, заарештували, судили та визнали винним. Тепер він проведе 4 роки у в’язниці та 3 роки під наглядом за найгірший злочин, пов’язаний з Java та Active Directory з моменту винаходу Java та Active Directory, при цьому Департамент юстиції заявив, що логічна бомба “вплинула на тисячі корпоративних користувачів по всьому світу”, перш ніж хтось в Eaton знайшов спосіб відновити системи.
“Крім того, в день, коли йому наказали здати корпоративний ноутбук, Лу видалив зашифровані дані,” — заявив Департамент юстиції. “Його історія пошуку в інтернеті показала, що він досліджував методи підвищення привілеїв, приховування процесів та швидкого видалення файлів, що вказує на намір перешкодити зусиллям своїх колег з вирішення системних збоїв.” (Хоча слід зазначити, що це були його колишні колеги.)
Очевидно, висновок з цієї історії полягає в тому, що помсту краще залишити вигаданим персонажам та кінематографу. Це точно не означає, що будь-хто, хто хоче встановити логічну бомбу, повинен, мабуть, зробити так, щоб код перевіряв кількох користувачів в Active Directory та спрацьовував через випадковий проміжок часу після того, як одного з цих користувачів більше немає в системі, або що дослідження способів саботажу мережі колишнього роботодавця вимагає принаймні режиму інкогніто.
Логічна бомба — це тип шкідливого програмного забезпечення, яке залишається бездіяльним у системі до тих пір, поки не відбудеться певна подія або умова. У випадку Девіса Лу “бомба” була запрограмована спрацьовувати при видаленні його облікового запису з Active Directory корпоративної системи, що автоматично відбулося при його звільненні.
Цей інцидент служить суворим нагадуванням про важливість кібербезпеки на робочому місці та потенційні наслідки зловживання привілейованим доступом до корпоративних систем.
Ця стаття Програміст заклав у мережу роботодавця логічну бомбу, яка почала знищувати сервери після його звільнення раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня
CyberCalm
ШІ-Кетфішинг: як захистити себе під час онлайн-знайомств
Немов поширення та вдосконалення інтернет-шахрайства само по собі було недостатньо, технології штучного інтелекту вже роблять їх більш поширеними та складнішими для виявлення. Старі афери тепер можна автоматизувати в масовому масштабі, а завдяки найновішим ШІ-технологіям стають можливими абсолютно нові види шахрайства.
Тепер до цього переліку можна додати «кетфішинг» на основі ШІ, оскільки шахраї використовують штучний інтелект, щоб одночасно розбивати серця та спустошувати банківські рахунки.
Найефективніші афери завжди були спрямовані на сильні людські емоції. Якщо звернутися до чиєїсь жадібності, самотності або хтивості, є великий шанс зменшити їхню здатність критично мислити та легше отримати від них згоду, яка стороннім здається ірраціональною.
Саме тому кетфішинг завжди був одним із найжорстокіших і найефективніших видів онлайн-шахрайства. При кетфішингу ви знайомитеся з кимось в інтернеті та формуєте з ним емоційні стосунки. Лише пізніше з’ясовується, що цієї людини ніколи не існувало. Хтось видавав себе за неї, змушуючи вас відчувати справжні почуття до фальшивої особи.
Частіше за все це романтичні стосунки, створені з метою отримання від вас грошей, але деякі шахраї роблять це просто для розваги або для якогось виду самореалізації. Це не завжди романтичні стосунки. Це може бути що завгодно — від нової дружби до нового ділового партнера, повністю вигаданого чиєюсь уявою.
На жаль, кілька ШІ-інструментів і технологій тепер дозволяють легко розгортати цю аферу в більшому масштабі. ШІ-відео легко генерувати, а з появою технологій як Google VEO 3 ми можемо автоматично генерувати аудіо до цього відео. Ви можете використовувати цю технологію для створення кумедних відео з бігфутом або для створення фальшивих людей для обману нічого не підозрюючих інтернет-користувачів.
Ви також можете робити діпфейки в реальному часі з ШІ-зміною голосу, щоб видавати себе за когось іншого під час відеодзвінка.
Навіть просто зміна голосу в наші дні настільки проста, що будь-хто може це зробити. Тож якщо ви можете обмежитися голосовими дзвінками, ви справді можете обманювати людей скільки завгодно, і навіть не обов’язково робити це самостійно. Просто використайте відповідно навчений чат-бот для спілкування з жертвами в реальному часі.
Все, що вам потрібно — це програмне забезпечення та комп’ютерне обладнання, щоб зробити це можливим. І ви можете сидіти склавши руки, поки ваша армія фальшивих ШІ-людей місяцями пробирається в серця людей, які навіть не підозрюють про обман.
Поговоріть зі своїми батьками, дітьми, друзями або будь-ким у своєму житті, хто не стежить за останніми технологічними новинами. Ніхто не захищений від афер на основі ШІ, а як кажуть, хто попереджений — той озброєний.
Хоча ШІ-кетфішинг може вдарити в будь-якій сфері життя, я вважаю, що онлайн-знайомства — це, мабуть, одне з найважливіших місць для особливих запобіжних заходів. Додатки для знайомств є надзвичайно популярним способом пошуку романтичних партнерів у наші дні, але деякі люди можуть довго переходити від онлайн-етапу до особистих зустрічей.
Попросіть про несподіваний відеодзвінок без попередження. ШІ-генеровані особи часто потребують часу на підготовку або можуть відмовлятися від спонтанних відеодзвінків. Справжня людина зможе швидко відповісти на неочікуваний виклик.
Запам’ятовуйте дрібні деталі з розмов та періодично згадуйте їх. ШІ може забувати раніше надану інформацію або подавати суперечливі факти. Ставте конкретні питання про їхнє минуле, роботу, місця, де вони були.
Ніколи не надсилайте гроші, особисті фінансові дані або інформацію про доходи комусь, кого ви не зустрічали особисто. Це червоний прапорець незалежно від того, наскільки переконливою здається історія.
Якщо щось здається “занадто ідеальним” або викликає внутрішній дискомфорт, не ігноруйте ці відчуття. ШІ може створювати “ідеальних” партнерів, які відповідають всім вашим вподобанням підозріло точно.
Не дозволяйте стосункам тягнутися місяцями без особистої зустрічі. Встановіть собі чіткі терміни: якщо протягом 2-4 тижнів немає можливості зустрітися особисто, варто переосмислити ці стосунки.
Якщо людина стверджує, що живе в вашому місті або має спільних знайомих, спробуйте це перевірити через соціальні мережі або місцеві спільноти.
Обмежуйтеся людьми, з якими можлива особиста зустріч, і намагайтеся організувати це якомога швидше, пам’ятаючи про всі інші звичайні запобіжні заходи безпеки онлайн-знайомств!
Ця стаття ШІ-Кетфішинг: як захистити себе під час онлайн-знайомств раніше була опублікована на сайті CyberCalm, її автор — Семенюк Валентин
CyberCalm
xAI випускає модель Grok 2.5 з відкритим кодом для безкоштовного використання
Ілон Маск оголосив, що його стартап зі штучного інтелекту xAI зробив відкритою модель Grok 2.5, надавши цю технологію безкоштовно дослідникам та розробникам по всьому світу. У дописі на своїй соціальній платформі X Маск також розкрив плани випустити більш просунуту модель Grok 3 з відкритим кодом протягом шести місяців.
“Модель @xAI Grok 2.5, яка була нашою найкращою моделлю минулого року, тепер має відкритий код. Grok 3 буде зроблена відкритою приблизно через 6 місяців”, – написав Маск в X.
The @xAI Grok 2.5 model, which was our best model last year, is now open source.
Grok 3 will be made open source in about 6 months. https://t.co/TXM0wyJKOh
— Elon Musk (@elonmusk) August 23, 2025
Цей крок представляє продовження зобов’язань xAI щодо прозорості в розробці штучного інтелекту. Компанія раніше зробила відкритою свою модель Grok-1 у березні 2024 року, виконавши обіцянку Маска зробити технологію публічно доступною. Цей випуск зробив Grok-1 найбільшою моделлю з відкритим кодом типу Mixture-of-Experts на той час із 314 мільярдами параметрів.
За інформацією TechCrunch, Grok-1 було випущено під ліцензією Apache 2.0, яка дозволяє комерційне використання. Відкритий випуск моделі дав змогу розробникам експериментувати з її структурою та поведінкою, хоча він надійшов без навчального коду чи точного налаштування для конкретних застосувань.
Рішення зробити Grok 2.5 відкритою з’являється в час, коли індустрія штучного інтелекту бореться з питаннями прозорості та доступу до просунутих моделей. Моделі штучного інтелекту з відкритим кодом можуть прискорити інновації, покращити безпеку та демократизувати доступ до передових технологій, які раніше були доступні лише великим корпораціям, вважають експерти індустрії.
Оголошення Маска слідує за його ширшою критикою компаній на кшталт OpenAI, яку він співзаснував, але пізніше покинув за відхід від принципів відкритого коду. У позові, поданому проти OpenAI, Маск звинуватив компанію у відмові від своєї початкової місії розробляти штучний інтелект на благо людства.
Сучасні моделі в ландшафті штучного інтелекту охоплюють широкий спектр можливостей та графіків випуску. За даними Backlinko, Grok 4 було випущено в липні 2025 року як модель із довжиною контексту 256,000 токенів, тоді як конкуренти, такі як GPT-5, запустили в серпні 2025 року з 272,000 токенами, а Gemini 2.5 Pro від Google з’явився в березні 2025 року з 1 мільйоном токенів.
Ці розробки підкреслюють швидкий темп розвитку штучного інтелекту, а підхід xAI з відкритим кодом надає альтернативу переважно закритим моделям від великих технологічних компаній. Стратегія компанії випускати моделі попереднього покоління з відкритим кодом, одночасно розробляючи нові версії, створює гібридний підхід, який балансує комерційні інтереси з доступом спільноти до передових технологій штучного інтелекту.
Ця стаття xAI випускає модель Grok 2.5 з відкритим кодом для безкоштовного використання раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня
CyberCalm
Як виявити шахрайські розширення у браузері та видалити їх?
Шахрайські розширення для браузерів можуть бути серйозною загрозою для вашої конфіденційності та безпеки. Вони можуть відстежувати вашу активність в Інтернеті, красти ваші дані, вставляти нав’язливу рекламу або навіть переадресовувати вас на шкідливі веб-сайти.
Ось кілька порад, як виявити шахрайські розширення у браузері:
Завантажуйте розширення лише з офіційних магазинів розширень вашого браузера, таких як Chrome Web Store або Firefox Add-ons. Цим ви зменшите ризик завантаження зловмисних розширень. Офіційний магазин має більший контроль та безпеку, оскільки розширення проходять кілька випробувань та контролю перед публікацією.
Перевіряйте відгуки: Відгуки користувачів є важливим джерелом інформації. Якщо розширення має погані відгуки або викликає сумніви, краще уникати його встановлення.
Зверніть увагу на кількість користувачів та дату останнього оновлення.
Перевіряйте опис розширення перед установкою: При завантаженні розширення обов’язково перегляньте його опис. Якщо щось не здається нормальним або не відповідає тому, що має робити розширення, це може бути чітким елементом визначення його безпеки.
Перевіряйте дозволи, які розширення запитують: Деякі розширення можуть запитувати дозволи, які не мають сенсу для їхньої функціональності. Якщо дозвіл не пов’язаний з вашою діяльністю, це може бути ознакою проблеми з безпекою.
Перевірте список розширень у вашому браузері, щоб переконатися, що ви знаєте всі розширення, які ви встановили. Будьте особливо уважні до тих, які встановились без вашого належного споглядання або підозрілі.
Видаліть будь-які розширення, які вам не потрібні або які ви не впізнаєте. Зверніть увагу на те, які дозволи надано вашим розширенням. Будьте обережні з розширеннями, які потребують доступу до ваших особистих даних або конфіденційної інформації.
Читайте також: Як переглянути інформацію про свої платіжні картки в Google Chrome?
Читайте також: 5 причин використовувати Firefox, коли потрібен безпечний браузер
Пам’ятайте: Ваша онлайн-безпека залежить від вас. Будьте пильні, завантажуючи розширення для браузера, і видаляйте будь-які шахрайські розширення, які ви знайдете.
Ця стаття Як виявити шахрайські розширення у браузері та видалити їх? раніше була опублікована на сайті CyberCalm, її автор — Олена Кожухар
CyberCalm
YouTube таємно використовував ШІ для зміни відео авторів
YouTube приховано застосовував штучний інтелект для покращення відео, завантажених користувачами, без відома чи згоди авторів, що викликало широкий резонанс серед творців контенту, які виявили тонкі, але помітні зміни у своїх оригінальних роботах. Платформа підтвердила цю практику після того, як автори почали публічно документувати несанкціоновані зміни свого контенту.
Популярний музичний ютубер Рік Беато з понад п’ятьма мільйонами підписників першим помітив, що щось не так із його нещодавніми завантаженнями. «Я подумав: “Дідько, моє волосся виглядає дивно”. І чим уважніше дивився, тим більше здавалося, що на мені макіяж», — розповів Беато BBC. «Я подумав: “Може, мені просто здається?”» Виявилося, що ні.
Колега-музикант Ретт Шалл із понад 700 тисячами підписників опублікував у серпні відео з розслідуванням того, що він називає «примусовим ШІ-масштабуванням» свого контенту. Шалл порівняв свої оригінальні завантаження з тим, що з’являлося на YouTube, виявивши ефект «олійного живопису», який робив його відео штучно покращеними з більш гладкими текстурами та посиленими деталями.
«Якби я хотів цього жахливого надмірного загострення, я б зробив це сам», — сказав Шалл у своєму відео. «Але головне те, що це виглядає згенеровано ШІ. Я вважаю, що це глибоко спотворює мене, те, що я роблю, та мій голос в інтернеті».
Читайте також: YouTube програє війну з блокувальниками реклами
Після місяців спекуляцій YouTube офіційно визнав цю практику через речника Рене Річчі, керівника редакції та зв’язків із авторами платформи. «Ми проводимо експеримент із вибраними YouTube Shorts, який використовує традиційні технології машинного навчання для усунення розмитості, шуму та покращення чіткості відео під час обробки (подібно до того, що робить сучасний смартфон під час запису відео)», — написав Річчі в X.
Компанія наголосила, що покращення не здійснюються за допомогою генеративного ШІ та описала експеримент як обмежений за масштабом. Однак YouTube відмовився уточнити, скільки користувачів зачеплено, або надати деталі про те, чи матимуть автори можливість вимкнути ці модифікації.
Ці розкриття підняли ширші питання про згоду та автентичність у створенні цифрового контенту, особливо коли платформа одночасно веде боротьбу зі спам-контентом, згенерованим ШІ, водночас застосовуючи ШІ-модифікації до автентичної роботи авторів. Такий подвійний підхід змусив авторів поставити під сумнів мотиви платформи, а Дейв Віскус, генеральний директор стримінгового сервісу Nebula, назвав несанкціоноване використання робіт авторів «крадіжкою» та «неповагою».
Крім індивідуальних занепокоєнь авторів, ця суперечка сигналізує про ширший перехід до екосистем контенту, в яких домінує ШІ, у всіх соціальних медіа-платформах. Музичні автори особливо голосно висловлювали свої страхи, що ШІ може «назавжди змінити реальність» без згоди, тоді як експерти індустрії попереджають, що такі практики можуть прискорити подібне впровадження на інших платформах з ризиком відчуження основних користувачів.
Ця стаття YouTube таємно використовував ШІ для зміни відео авторів раніше була опублікована на сайті CyberCalm, її автор — Побокін Максим
Кібербезпека простою мовою. Корисні поради, які допоможуть вам почуватися безпечно в мережі.