2 вересня 2024, 15:59

"Додайте клей до піци": чому ШІ все частіше помиляється, та як це вплине на його використання у майбутньому

Зі зростанням популярності моделей ШІ, таких як ChatGPT, Gemini й інших, багато користувачів починають помічати, що якість їхніх відповідей неухильно падає.

"Додайте клей до піци": чому ШІ все частіше помиляється, та як це вплине на його використання у майбутньому

Зі зростанням популярності генеративних ШІ-моделей, таких як ChatGPT, Gemini й інших, багато користувачів починають помічати, що якість їхніх відповідей неухильно падає. Причини цього явища криються у низькій якості даних, що використовуються для навчання моделей, і у тому, що дедалі більше контенту створюється самим ШІ. Про це повідомляє Computerword.

Коли тільки почали з'являтися генеративні ШІ, такі як ChatGPT і Gemini, багато хто вважав їх революційним інструментом. Ці моделі давали відповіді, які на перший погляд здавалися точними та корисними. Однак, як виявилося, зі зростанням їхньої популярності та збільшенням обсягу даних, використовуваних для навчання, якість відповідей почала різко знижуватися.

Однією з головних причин погіршення якості є те, що моделі навчаються на низькоякісних даних, узятих з таких джерел, як Twitter, Reddit і 4Chan. У результаті їхні відповіді можуть бути сповнені помилок і безглуздих тверджень. Наприклад, Google AI запропонував користувачам додати клей до піци або їсти по одному каменю на день - поради, які не мають жодного сенсу та можуть бути небезпечними.

Крім того, сучасні генеративні ШІ страждають від так званого "краху моделі". Цей процес, описаний у недавньому дослідженні, опублікованому у журналі Nature, відбувається, коли моделі починають вчитися на даних, створених іншими моделями. У результаті вони втрачають здатність розрізняти справжній розподіл даних і починають видавати ще більш неточні результати.

Ще одна проблема полягає у тому, що компанії все частіше використовують ШІ для створення контенту замість того, щоб наймати справжніх експертів. Це веде до того, що недостовірні дані витісняють якісну інформацію, це робить ШІ відповіді ще менш надійними. Як показало дослідження Epoch AI, до 2026 року ми можемо вичерпати запаси якісних даних для навчання ШІ, що посилить цю проблему.

Незважаючи на всі недоліки, ШІ все ще може бути корисним у вузькоспеціалізованих галузях, як-от діагностика захворювань або допомога у розробленні програмного забезпечення. Однак очікувати, що генеративні ШІ зможуть замінити професіоналів у галузі знань, не варто.

Раніше Dialog.UA повідомляв, що компанія Google представила модель штучного інтелекту HeAR, здатну виявляти ранні ознаки захворювань, аналізуючи звуки кашлю.

Тим часом Україна розробляє нову зброю для ЗСУ на базі штучного інтелекту.

Автор: Светлана Романенко

Останні новини