У Google заявили про нові алгоритми ранжування новин. Подібні зміни можуть зіграти злий жарт з більшістю онлайн-медіа.
Сотні мільйонів людей у всьому світі не тільки починають, але й проводять свій день разом з гаджетами в руках.
Соціальні мережі, відеохостинги, онлайн-ігри і, звичайно, новинні агрегатори стали чотирма кутами цифрової в’язниці, в яку ув’язнені все без винятку користувачі мережі, пише Новое Время.
Що планує зробити Google?
В офіційному блозі Google опублікували матеріал під авторством віце-президента відділу Новин Річарда Джинграса, який повідомляє, що їх компанія знову змінить пошукові алгоритми. Менеджер Google News пише, що тепер більш популярними будуть «оригінальні» повідомлення, тобто матеріали саме тих сайтів, які публікують новину вперше і є першоджерелом для інших.
Як саме Google планує оцінювати ступінь «первинності» і «оригінальності» — поки що невідомо. Але, в корпорації заявили, що над цим працюватимуть більше 10 тис. «оцінювачів», які вручну повинні відбирати найбільш «авторитетні» матеріали і видавати їх першими в пошукових запитах. На основі дій цих оцінювачів створять алгоритми, які вже автоматично зможуть розподіляти (ранжувати) різні матеріали у пошуковій видачі.
Це, з одного боку, круто і Google в черговий раз виступає за все хороше і проти всього поганого: вторинні матеріали і, відповідно, сайти, які копіпастять інформацію у інших ранжируватимуться нижче і опускатимуться в пошукових запитах на саме дно інтернету. Ну, а «оригінальні», на думку «оцінювачів» Google, статті будуть завжди на видному місці для користувачів, нібито забезпечуючи їм постійний доступ до якісної інформації.
Правда, не все так однозначно в цьому безкомпромісному альтруїзмі від найбільшої інтернет-корпорації в світі.
Перший — не завжди найкращий
У самому блозі Річарда Джинграса зазначено, що «не існує абсолютного визначення оригінального матеріалу» і компанія буде «розвивати свої зусилля для розуміння життєвого циклу статті».
По-перше, буде вкрай складно визначити оригінальність схожих матеріалів на різних сайтах, які, наприклад, засновані на одному і тому ж першоджерелі на кшталт прес-релізу будь-якої компанії, щойно опублікованого наукового дослідження або публічних заявах політиків.
По-друге, максимальна оригінальність і публікація матеріалу вперше в мережі далеко не завжди означають високу якість цієї інформації. Основою роботи багатьох профільних сайтів є аналітичні матеріали. У таких статтях часто посилаються на кілька першоджерел і новин, про які вже повідомляли інші, щоб надати своїй аудиторії більш повну картину і більш глибоке розуміння тієї чи іншої події, процесу або ситуації.
Якщо Google дійсно створить алгоритми для високого ранжирування виключно «breaking news» (з англ. — останні, одномоментні новини), — компанія може знизити рейтинги так званих «холодних медіа», які публікують, можливо, не найактуальнішу інформацію, але надають її контекст і значення для аудиторії.
Таким чином, корпорація може просувати сенсаційну інформацію, але позбавляти користувачів смислів, які ця інформація насправді несе.
Навіщо це потрібно Google?
Google, як Facebook і їх численні дочірні платформи, є агрегаторами інформації. Ці компанії надають сайтам своєрідний білборд, на якому будь-хто може опублікувати свої матеріали. Звичайно, за розподіл матеріалів у різних місцях цього білборда відповідають самі агрегатори, в цьому випадку — Google і Facebook.
Очевидно, що агрегатори зацікавлені в тому, щоб користувачі не переходили на сайт, який опублікував у них свою статтю, а читали інформацію з різних джерел і видань єдиним потоком, як це відбувається в стрічці Facebook або Google News.
Так агрегатори заробляють більше грошей на рекламі, залучають ширшу аудиторію, і, природно, будуть робити все, щоб на їх «білборді» було представлено якомога більше видань з «найпривабливішою» і «найклікабельнішою» інформацією для користувачів.
Від цього можуть постраждати самі сайти, які виробляють контент, адже на їх сторінки будуть переходити рідше і вони продадуть менше реклами. Тим часом монополісти-агрегатори будуть створювати максимально зручні для них алгоритми ранжирування матеріалів і заробляти на чужому і абсолютно різношерстому контенті.
Що це означає для кінцевого користувача?
Якісні західні медіа, на зразок The New York Times, The Washington Post, The Economist, The Guardian тощо, ще кілька років тому передбачили появу ненаситних агрегаторів і знайшли рішення цієї проблеми у створенні пейволу (з англ. Paywall — платний доступ).
Ця технологія передбачає платну підписку або покупку окремих матеріалів на сайті. Пейвол відрізає частину користувачів, які могли б випадково наштовхнутися на безкоштовний матеріал, наприклад, The Washington Post в Google, але зате формує лояльну до певного видання аудиторію, яка готова платити за споживання якісної інформації на одному конкретному сайті.
Цілком ймовірно, що незабаром ще більше видань захочуть створювати пейволи і обмежувати свою інформацію від загребущих Google і Facebook. Якщо це дійсно трапиться — серед інтернет-аудиторії відбудеться розкол на тих, які будуть платити за підписку і споживати те, що доступно обмеженому колу людей, і тих, хто буде читати все, що їм запропонують агрегатори.