З того часу, як ChatGPT з’явився на технічній сцені минулого року, виникло багато запитань щодо етики та принципів. Наприклад, як вчителі можуть дізнатися, чи було завдання, написане учнем, згенероване за допомогою ChatGPT, чи ні. Письменники, вчителі, науковці висловлювали занепокоєння з цього приводу. Існують інструменти, які можуть допомогти визначити, чи був написаний контент згенерований штучним інтелектом чи ні.
OpenAI, компанія, що стоїть за ChatGPT, також мала подібний інструмент. Однак, згідно з повідомленням The Verge, OpenAI закрила інструмент під назвою AI Classifier. У своєму блозі OpenAI підтвердила цю розробку.
Низький рівень точності
У своєму блозі компанія повідомила, що відтепер розробку інструменту припинено.
Станом на 20 липня 2023 року класифікатор ШІ більше не доступний через його низьку точність. Ми працюємо над тим, щоб включити зворотний зв’язок і наразі досліджуємо більш ефективні методи визначення походження тексту, а також взяли на себе зобов’язання розробити і впровадити механізми, які дозволять користувачам зрозуміти, чи є аудіо- або візуальний контент згенерованим штучним інтелектом
йдеться в повідомленні OpenAI в блозі компанії.
Інструмент був запущений в січні цього року. Ще під час запуску в OpenAI висловлювали сумніви щодо його точності. “Наш класифікатор не є повністю надійним”, – заявили в OpenAI. Компанія також повідомила, що, оцінюючи “тестовий набір” англійських текстів, класифікатор правильно ідентифікує 26% текстів, написаних ШІ (істинні позитивні результати), як “ймовірно написані ШІ”, в той час як текст, написаний людиною, помилково маркується як написаний ШІ в 9% випадків (хибні позитивні результати).
Існує багато інших інструментів, але вони все ще залишаються дещо нестабільними. Оскільки генеративний ШІ набуває популярності, і все більше користувачів користуються ChatGPT і Google Bard, очікується, що такі інструменти теж будуть популярними. OpenAI також не виключає такої можливості і може просто запустити оновлену версію пізніше.

