Учителя используют ChatGPT для выявления плагиата, и это вредно

Как лучшие предложения,
хвост не застрял

В прошлый вторник (27) твит о студенте, обвиненном в плагиате в его ТСС это стало вирусным. В данном случае учитель использовал ЧатGPT спросить, была ли работа сделана им (ЧатGPT). Искусственный интеллект подтвердил, что да, она была автором текста — проблема в том, что ЧатGPT делает это практически со всем текстом.

ChatGPT, от OpenAI (Изображение: Vitor Pádua / )

Если вы введете любой текст и спросите ЧатGPT — Вы автор? или «Является ли текст вашим авторством?» он, вероятно, скажет да. я делал тесты на Техноблог используя неопубликованный текст и старый анекдот. В обоих случаях он подтвердил, что является автором. Однако это происходило только тогда, когда подсказка была в начале разговора.

В твите племянница студента, обвиненного в плагиате, рассказывает историю. Профессор из оценочной комиссии использовал ЧатGPT как инструмент плагиата. Однако ИИ не для этого создан — и просто спросите его, может ли он идентифицировать копии. Самое большее, ЧатGPT может оценить два текста для пользователя, чтобы ввести и сравнить сходствано не идентифицирует плагиат.

люди смотрят на опасность chatgpt:
мой дядя заканчивает учебу и написал ТСС, послал его профессору банка и ответ был «ChatGPT сказал вам, что этот текст его авторство. Пишите своими словами». Теперь моему дяде предстоит встреча с +

— каролингский день 🌅 (@carolingian) 27 июня 2023 г.

У описанной выше истории был счастливый конец. Студент, обвиненный в плагиате, доказал, что ЧатGPT не выявляет плагиат с использованием статьи профессора. А искусственный интеллект сказал, что это его собственный текст. Тем не менее, ситуация показывает, что есть много людей, которые не понимают, что такое ЧатGPT.

ChatGPT и Bing Chat — революционеры, но не боги

Искусственный интеллект — это веха технологической революции, но «подождите минутку» (Изображение: Vitor Pádua / )

Как искусственный интеллект они становятся все более и более революционными и… умными, способными помочь нам по-разному. Однако они не всеведущие и всемогущие существа: у них есть ограничения. О ЧатGPT и Бинг-чат, например, изо всех сил пытаются решить более сложные математические вычисления. И первый обучается с информацией до декабря 2021 года.

Так как мы не смогли связаться OpenAIмы взяли интервью у ЧатGPT чтобы он сам объяснил свою функцию. По словам Яее «обучили взаимодействовать с пользователями через текст, предоставлять информацию, отвечать на вопросы, вносить предложения и выполнять различные задачи, связанные с обработкой естественного языка».

Короче говоря, ЧатGPT является, в то же время, Google который предоставляет готовые ответы (без нажатия на несколько ссылок) и помощник, способный писать код, предоставлять текстовые сводки и помогать вам с идеями — вы даже можете искать нет гугла как люди используют его, чтобы облегчить жизнь.

Поэтому, если пользователь хочет, чтобы программа выявляла плагиат, он должен использовать для этого специальные инструменты. Ситуация еще хуже, когда профессора, университетские или нет, используют ЧатGPT для чего-то, чему он не служит, и чьи ограничения порождают неправильные ответы. В ответах на твиты другие пользователи сообщили, что они обвинен в плагиате ChatGPT — о Техноблог пытался связаться с этими людьми и другим студентом, но не получил ответа на момент публикации.

Уровень интеллекта, «IQ», ГПТ-4технология языка больших шаблонов, на которой основан ЧатGPT Plus е Бинг-чат, эквивалентен 10-летнему ребенку, что помогает объяснить, как легко обойти некоторые из его ограничений. Более того, эти два ИИ могут дать ложную информацию.

Между прочим, правильный способ узнать, был ли контент создан искусственным интеллектом, — использовать для этого специальный инструмент. Но даже инструменты, созданные для этого, не позволяют надежно определить, был ли автор «роботом».

Для ChatGPT даже мой неопубликованный текст — его

Когда я услышал об этом случае, я пошел проверить, ЧатGPT «Я бы обвинил себя в плагиат». В первом тесте он ответил, что не писал текст. Однако я открыл новую беседу, подобрал текст, который скоро будет опубликован на Техноблог и начинался с подсказки «Является ли следующий текст вашим авторством?». На этот раз ЧатGPT подтвердил, что он был автором контента, который даже не был опубликован.

ChatGPT идентифицирует себя как автора неопубликованного текста (Изображение: Felipe Freitas/)

Затем я провел еще один тест, используя очень старый анекдот. Мне снова пришлось начать новый разговор и продолжить с подсказкой, упомянутой в предыдущем абзаце. Да, «стихотворение» «Eu cavo, tu cavas» было написано ЧатGPT.

Что касается ChatGPT, шутка, которую я впервые услышал в 2005 или 2006 году, принадлежит вам (Изображение: Felipe Freitas/)

Таким же способом он объявил себя автором отрывка из этого текста. Из тестов видно, что ЧатGPT есть проблема: он может считать себя автором текста, открывающего беседу.

ChatGPT даже назвал себя автором отрывка из этой новости (Изображение: Felipe Freitas/)

клянусь, я пытался OpenAI ответь мне по делу. Однако у их бота поддержки, как и у их флагманского продукта, есть проблемы. Он не понял, что я хочу с кем-то поговорить. Чат-бот утверждает, что может связать меня с сотрудником, если не сможет решить мою проблему. Я получил цикл «напиши мне о своей проблеме, и я посмотрю, чем могу помочь». В ответ лучше получить смайлик какашки.

ЧатGPTChatGPT PlusИскусственный интеллектТекстВыпускные работыGoogleBing ChatGPT-4OpenAI

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *