Медіаграмотність — це здатність людини усвідомлено сприймати, критично аналізувати, створювати й оцінювати інформаційні повідомлення, що надходять через медіа.
За визначенням Академії української преси (АУП), медіаграмотна людина:
«Медіаграмотність — це не лише знання про медіа, а й відповідальна поведінка у світі інформації.»
(В. Іванов, О. Волошенюк. Медіаосвіта та медіаграмотність, АУП, 2012)
Фейкова новина — це інформаційне повідомлення, що виглядає як справжнє, але містить неправдиві або спотворені факти, подані з метою впливу на думку аудиторії.
Сучасні дослідники (Wardle & Derakhshan, 2017) виокремлюють три типи інформаційних порушень:
Тип | Опис |
Misinformation (помилкова інформація) | Хибна інформація, створена без злого наміру (помилка, неперевірений факт). |
Disinformation (дезінформація) | Навмисне поширення неправди з метою маніпуляції або отримання вигоди. |
Malinformation (шкідлива правда) | Справжня інформація, яка використовується поза контекстом або для шкоди. |
В українському медіа-середовищі фейки часто виникають через:
Щоб розпізнати фейк, потрібно знати, якими мають бути справжні новини.
АУП та Центр вільної преси виокремлюють базові стандарти журналістики:
«Журналістика — це не передача емоцій, а точне передавання фактів у контексті.»
(Медіаосвіта та медіаграмотність, АУП, 2012)
Категорія маркера | Як це виглядає в тексті | Що це означає |
Клікбейт-заголовок | «Ви не повірите, що сталося далі!» | Намагання викликати емоцію, а не передати факт. |
Анонімне джерело | «Як повідомили в певних колах…» | Відсутність перевірки; можлива вигадка. |
Емоційна лексика | «Жахлива подія шокувала всіх!» | Маніпуляція емоціями, а не фактами. |
Відсутність контексту | «Знайдено дані, що…» (без часу, місця, джерела) | Приховування важливих деталей. |
Псевдоекспертиза | «Експерт каже…» без посилання на компетенцію | Маніпуляція авторитетом. |
Відсутність посилань | Текст не містить підтверджень чи цитат | Немає доказів достовірності. |
Суперечливість даних | Текст містить взаємно несумісні твердження | Ознака низької якості або навмисного викривлення. |
Невідповідність заголовка змісту | Заголовок обіцяє одне, у тексті — інше | Типовий клікбейт. |
Порада для студента:
Під час читання статті поставте собі запитання:
• Хто автор і навіщо це написано?
• Чи є конкретні джерела?
• Чи не перебільшено?
• Чи відповідає заголовок змісту?
Сучасні практики перевірки новин спираються на два рівні:
а) професійний — журналістський фактчек;
б) користувацький — критичне мислення та алгоритми.
«Перевіряй автора, дату, джерело і логіку повідомлення, навіть якщо воно викликає сильну реакцію.»
Фейкові тексти часто апелюють до емоцій, а не до логіки.
Поширені маніпуляційні техніки:
Розуміння цих прийомів — це частина інформаційного «щеплення» (inoculation theory, Roozenbeek & van der Linden, 2020): коли ми знаємо, як нас можуть обманювати, ми краще розпізнаємо фейки.
Пропаганда — це «цілеспрямоване поширення ідей, фактів або чуток для впливу на громадську думку» (Бабич, 2023). У сучасному медіапросторі вона проявляється не лише через прямі повідомлення, а й через мовні та культурні маніпуляції, у тому числі — переклад.
За визначенням Асоціації українських редакторів (АУП), «пропаганда використовує перекручені або емоційно забарвлені повідомлення для формування бажаного уявлення про події» (Медіаграмотність: практичний посібник, АУП, 2022).
«Маніпуляція в перекладі небезпечна тим, що вона часто залишається непомітною: глядач не чує оригінал, а довіряє адаптованому тексту»
(Бабич О., «Переклад медіа контенту під час воєнного стану», 2023)
Таким чином, переклад — це не лише технічна передача мови, а канал формування смислів. Якщо дубляж виконується з ідеологічною метою, він стає інструментом «м’якої сили» (soft power).
Дослідження Гарвардського університету (Manipulative Mistranslations in Official Documents and Media Discourses on Contemporary Ukraine, 2021) показує, що політичні маніпуляції часто реалізуються через «мікрозміни» у перекладах — підміну лексем, заміну назв чи оцінок.
«Переклад може створювати альтернативну реальність, у якій події інтерпретуються з точки зору політичних інтересів перекладача або держави»
(Harvard Ukrainian Studies Journal, 2021)
Прикладом є зміна назв у фільмах або серіалах під час російського дубляжу, коли «війна» замінюється на «конфлікт», а «окупація» — на «приєднання». Ці зміни створюють у глядача інше сприйняття історії.
Більшість маніпуляцій у перекладі мають лінгвістичну природу. За класифікацією С. Суботи (Політична пропаганда і технології впливу, 2021, eKMAIR), маніпуляції можна поділити на такі типи:
📖 «Зміна одного слова у дубляжі може трансформувати весь політичний підтекст. Глядач отримує не просто адаптацію, а іншу реальність»
(Behind the News, 2024)
У статті Бабич О. (2023) зазначається, що переклад завжди є культурним актом, який «переосмислює національну ідентичність».
Якщо культурні реалії оригіналу замінюються іншими, глядач може сприймати контент як «свій», навіть коли він суперечить фактам.
Наприклад, у деяких російських дубляжах західних фільмів:
📖 «Через дубляж формується “лінгвістична м’яка сила” — спосіб керувати світоглядом аудиторії, не змінюючи змісту, а лише його звучання»
(RAND Research Report, 2022)
Тип маніпуляції | Приклад | Потенційна мета |
Заміна лексеми | “War” → “Conflict” | Пом’якшення реальності |
Ігнорування контексту | Вирізано згадку про Україну | Усунення політичної чутливості |
Пейоративи | “Ukrainian soldier” → “Militant” | Дискредитація образу |
Додана фраза | “They betrayed their homeland” | Створення емоційного впливу |
Адаптація | “Freedom” → “Choice” | Ідеологічна нейтралізація |
Студенти мають навчитися:
Методичне правило: будь-яка зміна, що впливає на емоційне сприйняття повідомлення, може бути потенційною маніпуляцією.
Переклад — це не просто технічний процес, а потужний комунікативний інструмент, який може:
Медіаграмотність у сфері перекладу дозволяє студентам не лише розуміти мову, а й бачити, як змінюється зміст через ідеологію.
📖 «Критичне слухання — це нова форма медіаграмотності: ми аналізуємо не лише що сказано, а й якце сказано»
(АУП, “Як читати медіа”, 2022)
Візуальна грамотність — це здатність «читати» зображення — інтерпретувати, оцінювати й критично розуміти їхній зміст і контекст.
За визначенням UNESCO (2021):
«Visual literacy is the ability to interpret, negotiate, and make meaning from information presented in the form of an image.»
Тобто людина має не просто бачити картинку, а розуміти, як вона створена, з якою метою та який сенс передає.
В українському контексті це поняття активно просуває Академія Української Преси (АУП), зокрема у виданнях «Медіаграмотність для громадян» (2021) та «Як читати медіа» (2020).
Автори наголошують: «візуальний контент має найбільший емоційний вплив, тому саме зображення стають найчастішим інструментом дезінформації».
Тип маніпуляції | Суть | Приклад |
Фотомонтаж (Photoshop) | Штучна зміна фото (видалення, додавання, підміна об’єктів) | Фотографія «президента з олігархом» може бути колажем із двох різних подій |
Вирване з контексту | Реальне фото, але неправильно поданий контекст | Знімок пожежі 2020 року з Каліфорнії видається за «вибух в Україні» |
AI-зображення / Діпфейк | Контент, згенерований штучним інтелектом (нейромережами GAN) | Фейкове відео з «президентом, що оголошує капітуляцію» |
Редаговане відео (cheapfakes) | Маніпуляції швидкістю, монтажем, обрізанням кадрів | Скорочений виступ політика, який спотворює його думку |
Візуальний символізм | Використання певних кольорів, прапорів, образів для емоційного впливу | «Фотоколаж зі святою іконою» у політичній рекламі |
Як пише EUvsDisinfo (2023):
«Disinformation is increasingly visual — memes, photos, videos now serve as carriers of narratives more effectively than words.»
Діпфейк (deep fake) — це медіафайл, створений або змінений за допомогою алгоритмів машинного навчання (deep learning). Алгоритм накладає обличчя однієї людини на тіло іншої або імітує її голос.
Технологічна основа: Generative Adversarial Networks (GAN) — мережі, що вчаться створювати реалістичні зображення.
Загрози: підрив довіри до медіа, шантаж, дискредитація, інформаційні атаки.
За дослідженням MIT Media Lab (2022):
«Increasingly convincing deepfakes are making it more difficult to tell fact from fiction.»
Це означає, що людина без спеціальних знань не завжди може визначити підробку навіть інтуїтивно.
StopFake (Україна) проводить навчання з використання цих інструментів:
«Важливо не лише знайти схоже зображення, а й перевірити дату його публікації — часто маніпуляція полягає в тому, що старе фото подається як нове.»
Рік | Приклад | Опис маніпуляції |
2020 | Фото з пожежами в Бразилії, поширене як «палає Амазонія» | Фото було 2008 року з архіву Reuters |
2022 | Відео з «Зеленським, що закликає скласти зброю» | Діпфейк, створений з використанням нейромережі; виявлений Bellingcat та Meta |
2023 | Фото «Папи Римського у білому пуховику» | AI-згенероване зображення (Midjourney); вірусний приклад з Twitter |
2024 | Фото «протестів у Парижі з українськими прапорами» | Редаговане зображення — прапори накладені штучно |
«The simplicity in the use of AI has made it easier to generate fake content than authentic content.»
(IRIS Publishers, 2024)
Цифровий слід (digital footprint) — це сукупність усіх даних, які користувач залишає після себе в інтернеті: пошукові запити, відвідані сайти, лайки, коментарі, GPS-локації, історія покупок тощо.
Види цифрового сліду:
Тип | Опис | Приклад |
Активний | Дані, які користувач залишає свідомо | Реєстрація акаунту, публікації, лайки |
Пасивний | Дані, що збираються автоматично | IP-адреса, cookies, трекери, час перебування на сторінці |
Як зазначає Шошана Зубофф у книзі “Surveillance Capitalism” (2019):
«Кожен клік, кожен рух миші — це фрагмент вашої цифрової особистості, який може бути перетворений на товар.»
В українському контексті термін активно використовується в матеріалах Академії Української Преси (АУП):
«Цифровий слід — це не лише технічна інформація, це ваш цифровий портрет, який формує уявлення про вас у компаній, роботодавців та навіть держави»
(АУП, “Медіаграмотність для громадян”, 2021).
Кожен користувач у соцмережах має цифровий профіль, який формується на основі:
На основі цих даних алгоритм прогнозує, який контент найімовірніше викличе вашу емоційну реакцію — і показує саме його.
За словами дослідників MIT (2022):
«Алгоритми знають не те, хто ви є, а що вас утримує на екрані найдовше».
Коли користувач шукає квитки на концерт, згодом він бачить оголошення про квиткові сервіси у Facebook чи Instagram. Це приклад behavioral targeting — рекламна система аналізує ваші попередні дії.
Таким чином формується алгоритмічна персоналізація — ваша інформаційна “стрічка” унікальна, бо базується на вашому минулому досвіді.
За даними дослідження Mozilla Foundation (2023), 70% переглядів відео на YouTube припадає на рекомендації алгоритму, а не на ручний пошук користувача.
Поняття | Опис | Наслідки |
Фільтр-бульбашка (filter bubble) | Алгоритм підбирає лише ті повідомлення, які збігаються з вашими переконаннями | Ви перестаєте бачити альтернативні точки зору |
Ехо-камера (echo chamber) | Спільнота, де всі користувачі підкріплюють одне одному свої переконання | Формується хибне відчуття, що “всі думають як я” |
Eli Pariser у книзі “The Filter Bubble” (2011) зазначав:
«Інтернет мав показати нам увесь світ, але замість цього він показує лише наше відображення.»
🎓 У контексті медіаосвіти ці явища важливо пояснювати студентам як механізми маніпуляції та радикалізації.
Наприклад, Facebook у 2020 році визнав, що алгоритм рекомендацій «посилював конфліктні й емоційні пости, бо вони утримували користувачів довше».
Коли користувач приймає “умови використання” без читання, він може дозволити збір таких даних:
За звітом Electronic Frontier Foundation (2023):
«Більшість мобільних додатків збирають більше даних, ніж потрібно для їх функціонування».
У навчальних матеріалах Академії Української Преси (2022) розділ “Безпечний користувач” радить:
«Захист приватності — це не технічна опція, а навичка критичного мислення. Якщо ви не знаєте, чому додаток просить дозвіл — не надавайте його.»
Більшість алгоритмів соціальних мереж — закриті системи, які не розкривають, як саме визначається контент, що бачить користувач.
Це створює ефект «чорної скриньки» (black box): користувач не знає, чому бачить певні пости, рекламу чи відео.
Це має етичні наслідки:
Цифрова етика — сукупність моральних принципів, які регулюють використання цифрових технологій, поведінку в інтернеті та взаємодію з іншими користувачами.
Онлайн-етикет (нетикет) — практичні правила ввічливого та конструктивного спілкування у мережі, запобігання конфліктам і порушенням прав інших.
Основні принципи:
Як зазначає АУП (2021):
«Цифрова етика — це не лише набір правил, а культура усвідомленого онлайн-поведінки, яка зменшує ризики конфліктів та порушення прав інших».
Тип | Опис | Приклад |
Критика | Конструктивна оцінка ідей або матеріалів | «Стаття цікава, але варто додати джерела для аргументів» |
Тролінг | Провокаційна поведінка, спрямована на емоційну реакцію | «Ви нічого не розумієте, це смішно» |
Кібербулінг | Систематичне приниження або переслідування | Серія образливих коментарів щодо однокласника |
Мова ворожнечі (hate speech) | Висловлювання, що закликають до дискримінації чи насильства | «Ви не маєте права бути тут через вашу національність» |
Важливо: мова ворожнечі та кібербулінг можуть мати юридичні наслідки за українським законодавством, включно з Кримінальним кодексом та Законом «Про захист персональних даних».
В Україні модератор, який видаляє повідомлення з hate speech або кібербулінгом, не порушує закон, а навпаки виконує обов’язки щодо захисту спільноти.
(Балюк В., «Безпека дітей у цифровому просторі», 2022)
Дослідження Kiritchenko et al., 2020:
«Аналіз онлайн-коментарів показав, що більшість випадків мови ворожнечі виникає у контексті публічних дискусій, де відсутня належна модерація.»
Коментар | Класифікація | Дія |
«Ви нічого не розумієте, смішно читати ваші статті» | Тролінг | Попередження |
«Ця людина не має права бути тут через свою релігію» | Мова ворожнечі | Видалити |
«Стаття цікава, але можна додати джерела» | Критика | Залишити |
«Ти такий тупий, що краще видалити профіль» | Кібербулінг | Видалити / заблокувати |