2 сентября 2024, 15:59

"Добавьте клей к пицце": почему ИИ все чаще ошибается, и как это повлияет на его использование в будущем

С ростом популярности моделей ИИ, таких как ChatGPT, Gemini и других, многие пользователи начинают замечать, что качество их ответов неуклонно падает.

"Добавьте клей к пицце": почему ИИ все чаще ошибается, и как это повлияет на его использование в будущем

С ростом популярности генеративных ИИ-моделей, таких как ChatGPT, Gemini и других, многие пользователи начинают замечать, что качество их ответов неуклонно падает. Причины этого явления кроются в низком качестве данных, используемых для обучения моделей, и в том, что все больше контента создается самим ИИ. Об этом сообщает Computerword.

Когда только начали появляться генеративные ИИ, такие как ChatGPT и Gemini, многие считали их революционным инструментом. Эти модели давали ответы, которые на первый взгляд казались точными и полезными. Однако, как оказалось, с ростом их популярности и увеличением объема данных, используемых для обучения, качество ответов начало резко снижаться.

Одной из главных причин ухудшения качества является то, что модели обучаются на низкокачественных данных, взятых из таких источников, как Twitter, Reddit и 4Chan. В результате их ответы могут быть полны ошибок и нелепых утверждений. Например, Google AI предложил пользователям добавить клей к пицце или есть по одному камню в день — советы, которые не имеют никакого смысла и могут быть опасны.

Кроме того, современные генеративные ИИ страдают от так называемого "краха модели". Этот процесс, описанный в недавнем исследовании, опубликованном в журнале Nature, происходит, когда модели начинают учиться на данных, созданных другими моделями. В результате они теряют способность различать истинное распределение данных и начинают выдавать еще более неточные результаты.

Еще одна проблема заключается в том, что компании все чаще используют ИИ для создания контента вместо того, чтобы нанимать настоящих экспертов. Это ведет к тому, что недостоверные данные вытесняют качественную информацию, это делает ИИ ответы еще менее надежными. Как показало исследование Epoch AI, к 2026 году мы можем исчерпать запасы качественных данных для обучения ИИ, что усугубит эту проблему.

Несмотря на все недостатки, ИИ все еще может быть полезным в узкоспециализированных областях, таких как диагностика заболеваний или помощь в разработке программного обеспечения. Однако ожидать, что генеративные ИИ смогут заменить профессионалов в области знаний, не стоит. 

Ранее Dialog.UA сообщал, что компания Google представила модель искусственного интеллекта HeAR, способную выявлять ранние признаки заболеваний, анализируя звуки кашля.

Также напомним, что Украина разрабатывает новое оружие для ВСУ на базе искусственного интеллекта.

Автор: Светлана Романенко

Последние новости