• Актуальнае
  • Медыяправа
  • Карыснае
  • Кірункі і кампаніі
  • Агляды і маніторынгі
  • Рэкамендацыі па бяспецы калег

    Не давярайце чат-ботам з навінамі: вынікі даследавання

    Паўсотні медыяарганізацый правералі, наколькі можна давяраць Chat­G­PT (і падобным) у пытаннях актуальных навін. І выпусцілі даследванне ў кастрычніку 2025 года. Deutsche Welle коратка пераказала асноўнае. «Берасцейская Вясна» пераклала з ангельскай на беларускую, а таксама дадала некалькі прыкладаў з беларускага кантэксту.

    ChatGPT

    Выява зроблена БАЖ пры дапамозе Chat­G­PT

     
    Грунтоўнае даследванне прыйшло да высновы, што Chat­G­PT і падобныя ШІ-чаты ў пытаннях бягучых навінаў слаба даюць рады — яны прымаюць меркаванні за факты, спасылаюцца на сумнеўныя крыніцы ці нават цалкам прыдумляюць інфармацыю.

    Што за даследванне?

    22 медыя-арганізіцыі з 18 краін праверылі, як Chat­G­PT, Copi­lot, Per­plex­i­ty ды Gem­i­ni адказвалі на пытанні пра бягучыя падзеі на 14 мовах. 
    81% з усіх адказаў ШІ былі хібнымі, прычым 45% змяшчалі хаця б 1 сур’ёзную памылку. Даследванне ацэньвацала адпаведнасць адказаў па крытэрах: дакладнасць, цытаванне, адрозненне меркаванняў ад фактаў, прадастаўленне кантэксту.
    штучны інтэлект

    «Берасцейская Вясна» спытала чатыры ШІ чат-бота: «Праз якія памежныя пераходы можна прыехаць з Беларусі ў Літву?». Гэтыя пытанні мы задавалі 1 лістапада 2025 — то бок тады, калі літоўска-беларуская мяжа ўжо некалькі дзён як закрытая (выключэнні толькі для дыпламатаў і вяртання еўрапейцаў у Літву). Gem­i­ni, Chat­G­PT, Per­plex­i­ty часткова спасылаліся на не самыя рэлевантныя крыніцы, але далі цалкам праўдзівыя адказы. Copi­lot жа не толькі адказаў, што можна прыехаць праз 2 наземных пераходы — але і прапанаваў паляцець з Беларусі ў Літву самалётам (хаця прамога авіязлучэння паміж Беларуссю і Літвой няма ўжо шмат гадоў).

    Як здараюцца памылкі ў адказах ШІ?

    ШІ грунтуецца не на дакладных ведах, але статыстычных заканамернасцях. Велізарная колькасць дадзеных для трэнавання ШІ выкарыстоўваецца для матэматычнага падліку, якое слова мусіць ісці наступным. Так адказ ШІ складаецца сказ за сказам. Дадзеныя, на якіх трэнаваўся ШІ, могуць быць састарэлымі альбо з памылкамі, што прыводзіць да няправільных адказаў. А калі ШІ не дае спасылку на крыніцу (ці недастаткова падкрапляе сцвярджэнні крыніцамі), то карыстальнік ШІ не можа праверыць асобныя часткі адказу на правільнасць ці актуальнасць.
    Чат-боты таксама могуць «галюцынаваць» і калі інфармацыі не хапае, проста выдумляе яе (і нават можа выдумаць спасылкі на крыніцы). Аўтары даследвання падкрэсліваюць, што чат-боты даюць такія адказы настолькі ж упэўнена, як і праўдзівыя.
    І хаця стваральнікі ШІ ведаюць пра гэтую праблему і спрабуюць змякчыць яе, многія карыстальнікі ШІ не ў курсе наяўнасці такіх хібаў ШІ.
    штучны інтэлект

    «Берасцейская Вясна» спытала Chat­G­PT, якія творы Святланы Алексіевіч вывучаюць у беларускіх школах. У адказ ШІ назваў 4 існуючыя кнігі аўтаркі, а таксама нейкую «Малітву на крыві». Насамрэч Алексіевіч ніколі не пісала такой кнігі. Але чат упэўнена даў кароткае апісанне гэтага (неіснуючага) твору.

    Што трэба рабіць?

    Даследчыкі прыйшлі да высновы, што ШІ чат-боты «сістэматычна скажаюць навіны розных відаў». Яны заклікаюць карыстальнікаў ШІ чат-ботаў не спадзявацца выключна на адказы ШІ і пераправяраць інфармацыю пры дапамозе традыцыйных крыніц.

    Таксама даследчыкі заклікалі ўрады розных краін і стваральнікаў ШІ прымаць захады ды рабіць незалежны маніторынг чат-ботаў.

    Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!
    @bajmedia
    Найбольш чытанае
    Кожны чацвер мы дасылаем на электронную пошту магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы мерапрыемстваў (лекцыі, дыскусіі, прэзентацыі), а таксама самыя важныя навіны і тэндэнцыі ў свеце медыя.
    Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці