Методична розробка на тему: ”Інформаційна війна та методи застосування в епоху ШІ”.

 

У сучасному світі, де інформація є ключовим ресурсом, а цифрові технології пронизують усі сфери життя, розуміння сутності інформаційної війни стає критично важливим. Інформаційна війна — це реальність сьогодення, і штучний інтелект стає дедалі потужнішим інструментом у ній. Розуміння того, як працюють ШІ-інструменти для генерації та поширення контенту, які методи використовуються в інформаційному протистоянні, є життєво необхідним для сучасного військового. Ми маємо не лише навчати технічних навичок, але й формувати в учнів критичне мислення, здатність розпізнавати ШІ-генерований контент та протистояти інформаційним маніпуляціям. Включення цих тем до навчальних програм є важливим кроком у підготовці кадрів, здатних ефективно діяти в умовах інформаційної війни XXI століття.

ЩО ТАКЕ ІНФОРМАЦІЙНА ВІЙНА?

     Інформаційна війна — це складне та багатошарове явище. Це не лише військовий термін, а й сфера, що охоплює широкий спектр дій, які впливають на інформаційний простір та інформаційні потоки. Фактично, це система впливу на масову свідомість, індивідуальну та групову поведінку, а також на соціальні, політичні, економічні та військові аспекти. Основна мета інформаційної війни — впливати на свідомість людей та їх поведінку. Це протистояння відбувається не лише на полі бою, але й у когнітивній, психологічній, технічній та цифровій сферах.

На відміну від традиційних воєн, де основним є фізичне протистояння, інформаційна війна ведеться за контроль над інформацією та її сприйняттям. Хоча концепція впливу на свідомість супротивника існувала здавна (через пропаганду, чутки, листівки), цифрова епоха надала їй нових масштабів та інструментів.

МЕТОДИ, ЩО ЗАСТОСОВУЮТЬСЯ ПІД ЧАС ІНФОРМАЦІЙНОЇ ВІЙНИ

Інформаційно-психологічна війна:

     Вона включає поширення спотвореної або неповної інформації, маніпулювання громадською думкою, психологічний тиск. Прикладом може слугувати використання Росією фейкових профілів у соціальних мережах ("face profiles") та ботоферм для поширення пропаганди, пов'язаної з Україною та війною. Ці акаунти постили відео з володимиром путіним, який виправдовував дії в Україні або заявляв, що частини України, Польщі та Литви були "подарунками" від росії. Також поширювалися повідомлення про нібито отримання українськими військовими "подарунків" після бойових втрат. Було зафіксовано використання двох доменних імен для створення фейкових адрес електронної пошти. Twitter (тепер X) призупинив акаунти, які були частиною російської кампанії.

Інформаційно-технічна війна:

     Це дії, спрямовані на технічні системи, такі як несанкціонований доступ до даних, їх знищення або модифікація, а також атаки типу "відмова в обслуговуванні" (DDoS).

     В Україні також застосовуються інформаційні методи, зокрема, використання програмного забезпечення для розпізнавання облич (наприклад, Clearview AI) для ідентифікації російських військових за їхніми акаунтами в соціальних мережах, що дозволяє розкривати їхні позиції та повідомляти про втрати. Поширення такої інформації через соціальні мережі є потужним інструментом. Також згадується гаряча лінія "Хочу жити", якою скористалися понад 220 російських солдатів для здачі в полон, що може бути результатом інформаційних кампаній.

     До появи сучасних цифрових технологій та ШІ ці методи реалізовувалися через більш "традиційні" канали: листівки, радіомовлення, статті в газетах, особисті контакти для поширення чуток, радіоелектронна боротьба для глушіння сигналів. Цифрові технології, а тепер і ШІ, багаторазово посилили ці можливості, зробивши поширення інформації (та дезінформації) швидшим, масштабнішим та складнішим для виявлення.

ВИКОРИСТАННЯ ШІ В ІНФОРМАЦІЙНІЙ ВІЙНІ

     Штучний інтелект кардинально змінює ландшафт інформаційної війни. Він дозволяє автоматизувати та посилити багато процесів, які раніше вимагали значних людських ресурсів. ШІ-генерований контент має потенціал "спотворювати правду", що є прямою загрозою в інформаційному протистоянні.

ШІ в інформаційній війні використовується для:

Ø    Масштабування та швидкості виробництва контенту:

ШІ може генерувати величезні обсяги тексту, аудіо, зображень та відео набагато швидше і дешевше, ніж це робили люди. Це дозволяє насичувати інформаційний простір потрібними наративами миттєво.

Ø    Підвищення реалістичності контенту:

ШІ здатен створювати надзвичайно реалістичний фейковий контент, наприклад, глибокі підробки голосу (deepfakes) або фотореалістичні зображення. Це робить відмінність між правдою та брехнею дедалі складнішою.

Ø    Автоматизація процесів:

Від написання текстів та сценаріїв до генерації зображень та навіть створення відео, ШІ дозволяє автоматизувати весь ланцюжок створення контенту для поширення. ШІ активно впроваджується у "інформаційні технології" та "інформаційну війну", демонструючи швидке прийняття та потенціал до прискорення процесів.

ПРИКЛАДИ ЗАСТОСУВАННЯ ШІ В ІНФОРМАЦІЙНІЙ ВІЙНІ МІЖ УКРАЇНОЮ ТА росією

     Хоча конкретні деталі використання ШІ державами часто є закритою інформацією, наявні дані та публічні інструменти дають уявлення про можливості:

Україна:

     Використання програмного забезпечення Clearview AI для розпізнавання облич російських військових з фотографій у відкритих джерелах (соціальних мережах) є

підтвердженим прикладом застосування ШІ для збору розвідувальної інформації та її подальшого використання в інформаційних цілях.

росія:

     Як згадувалося, росія активно використовує ботоферми та фейкові акаунти для поширення пропаганди. Хоча джерела не стверджують прямо, що саме у цих прикладах ботоферм використовувався ШІ, такі інструменти, як генератори тексту (ChatGPT), генератори зображень (Midjourney) та генератори голосу (Murf AI, загальні TTS-сервіси), можуть бути використані для автоматичного створення контенту для цих акаунтів, підвищуючи їх ефективність та реалістичність. Враховуючи посилання джерел на потенціал ШІ-генерованого контенту спотворювати правду та загальний зв'язок ШІ з інформаційною війною в Україні, можна припустити високу ймовірність такого використання.

АКТУАЛЬНІ ПРАКТИКИ Й ІНСТРУМЕНТИ ШІ У ЦІЙ СФЕРІ

·       Генерація тексту:

ChatGPT та подібні моделі можуть використовуватися для швидкого написання сценаріїв відео, статей, постів для соціальних мереж, коментарів тощо. Це дозволяє масово створювати потрібні наративи.

Приклад використання:

Створення тисячі унікальних пропагандистських повідомлень для різних платформ за лічені хвилини.

·      Генерація голосу (Text-to-Speech):

Сервіси типу ElevenLabs пропонують "надзвичайно реалістичні голоси" з різними акцентами, що дозволяє створювати озвучку для відео, подкастів, голосових повідомлень без залучення дикторів. Деякі інструменти можуть навіть клонувати голос певної особи (deepfake voice).

Приклад використання:

Озвучка фейкових новин або створення "голосових повідомлень" від відомих осіб.

·      Генерація зображень:

Midjourney та інші генеративні моделі зображень дозволяють створювати унікальні візуальні матеріали (фотографії, ілюстрації) на задану тему за текстовим описом. Це ідеально підходить для створення обкладинок, ілюстрацій до фейкових новин або візуального контенту для соціальних мереж. Можна задавати стиль (кольоровий, реалістичний), роздільну здатність, співвідношення сторін.

Приклад використання:

Створення фотореалістичних, але повністю вигаданих зображень подій або осіб для супроводу дезінформаційних матеріалів.

·      Створення відео:

Платформи типу InVideo.io або редактори, вбудовані в TTS-сервіси (як у Murf AI), дозволяють комбінувати згенеровані ШІ аудіо, текст та візуальні матеріали зі стоковим контентом для швидкого створення повноцінних відеороликів.

Приклад використання:

Автоматизоване створення серії новинних сюжетів або пропагандистських роликів без необхідності традиційної відеостудії.

·      Розпізнавання та аналіз даних:

ШІ-інструменти для розпізнавання облич (наприклад, Clearview AI) або аналізу тексту можуть використовуватися для моніторингу соціальних мереж, ідентифікації осіб, виявлення зв'язків, аналізу настроїв аудиторії або автоматизованого пошуку інформації.

Приклад використання:

Виявлення профілів, пов'язаних з ворожою пропагандою, або ідентифікація осіб, що поширюють дезінформацію.

 

СПИСОК ВИКОРИСТАНИХ ДЖЕРЕЛ

1. Енциклопедія Сучасної України: Інформаційна війна – визначення поняття, історична довідка та методи (ЕСУ)esu.com.uaesu.com.ua.

2. Norwich University – Resource Library: Fundamentals of Information Warfare – класифікація методів (психологічні операції, кібероперації,

пропаганда)online.norwich.eduonline.norwich.edu.

3. DFRLab (Atlantic Council): Roman Osadchuk, “AI tools usage for disinformation in the war in Ukraine,” 09.07.2024 – огляд застосування ШІ в російських інформаційних операціях (deepfake-відео, аудіофейки, генерація

тексту)dfrlab.orgdfrlab.org.

4. Euronews: “Deepfake Zelenskyy surrender video is the 'first intentionally used' in Ukraine war,” 16.03.2022 – про випадок фейкового звернення Зеленського із закликом до капітуляції (деталі інциденту, реакція

України)euronews.comeuronews.com.

5. BBC / NPR: Повідомлення про викриття російської бот-мережі з використанням ШІ для імітації американців у соцмережах (заява Мін’юсту США, липень 2024)npr.orgnpr.org.

6. StopFake: Оксана Полулях, “How AI-Generated Content Blurs the Truth about War,” 11.12.2024 – дослідження про небезпеку та ознаки AI-згенерованих зображень, приклади емоційних фейків у соцмережахstopfake.orgstopfake.org.

7. TechPolicy.press: Ольга Данченкова, “Ukraine’s Hard-Won Approach to StratCom and Counter-Disinformation,” 12.03.2025 – про український досвід протидії

російській дезінформації, створення центрів і стартапів, що використовують ШІtechpolicy.press.

8. The Kyiv Independent: “Over 220 Russian soldiers surrender through 'I want to live' hotline,” 04.01.2024 – про результати роботи проекту «Хочу жити» (чатбот і гаряча лінія для російських військових)kyivindependent.comkyivindependent.com.

9. The Guardian: Johana Bhuiyan, “Ukraine uses facial recognition to identify Russian soldiers killed in combat,” 24.03.2022 – про застосування технології Clearview AI українським урядом для ідентифікації загиблих російських солдат і контакту з їхніми родинамиtheguardian.comtheguardian.com.

10. DFRLab (Atlantic Council): “Deepfakes evolve in Ukraine conflict,” приклади deepfake-вкидів 2023 року (фейки про Залужного, підробка розмови із «Порошенком» тощо)dfrlab.orgdfrlab.org.

11. Reuters / BBC Verify: Аналіз випадків аудіофейків – сфальшований виступ губернатора Техасу (2023)dfrlab.org, інцидент з підробним голосом О. Данілова на росТБdfrlab.org.

12. Meduza (з посиланням на NewsGuard): “Russian disinformation network flooded training data to manipulate Western AI chatbots,” 07.03.2025 – про кампанію «Правда» з отруєння даних для чатботів, масштаби генерації контенту (3,6 млн статей)meduza.iomeduza.io.

13. ЕСУ – “Інформаційна війна Росії проти України”: огляд напрямів російської ІВ проти України (2014–2022), включно з дезінформацією, цензурою, пропагандою в медіаesu.com.uaesu.com.ua.

14. Указ Президента України №685/2017: “Про Доктрину інформаційної безпеки України” – стратегічні засади протидії інформаційним загрозам (нормативний документ, для загального розуміння державного підходу).

15. Bellingcat та інші OSINT-ресурси: різні звіти розслідувачів щодо верифікації фото/відео з війни, виявлення фейків (напр. геолокація інсценованих відео, аналіз метаданих зображень) – демонструють успішне використання інструментів аналізу даних у боротьбі з дезінформацією.


Коментарі

Популярні дописи з цього блогу

Подяки за конкурс "Бебрас-2023"

Про "стратегії освіти"