А судьи кто? ChatGPT – так ли все безопасно на самом деле?

А судьи кто? ChatGPT – так ли все безопасно на самом деле?


За последние несколько лет технологии искусственного интеллекта впечатляют. Самый яркий пример –  ChatGPT, разработанный компанией OpenAI. Им пользуются абсолютно все: от студентов до высокопоставленных лиц. Этот инструмент позволяет создавать текст на основе заданных пользователем запросов. ChatGPT полюбился всеми. Он способен подсказать в каком-то вопросе, пообщаться, создать контент и даже выполнить часть работы за вас. Но мы с вами знаем, что удобная технология никогда не может быть безопасной на 100%. И это важно помнить. В данной статье мы разберем принципы работы ChatGPT, основные риски и какой информацией точно не стоит делиться. 

Большая языковая модель на казахском языке 

В Казахстане уже совсем скоро появится большая языковая модель на казахском языке KazLLM. Можно сказать, что это альтернатива американским чат-ботам. К слову, уже сейчас вы можете протестить нейросеть. Но с осторожностью. 

Есть опыт, когда чиновники из разных стран, в буквальном смысле хвастались, что их доклад или презентацию сделал чат-бот. С точки зрения безопасности, хвастаться нечем. Потому что пока непонятно, как будут храниться эти данные и не будут ли использовать эти данные против нас. Кроме того, ответы на эти вопросы мы получим не в скором времени. 

Принципы работы ChatGPT

ChatGPT использует глубокое обучение для генерации текста и учится на большом объеме данных из интернета. Тем самым генерирует ответы на различные запросы и анализирует контекст, чтобы определить намерения пользователя. 

Это ведь круто. А что плохого?

  • Ложная информация 

Самая главная и большая проблема  –  возможность распространения неправдоподобной информации. Поскольку ChatGPT обучается на текстах из интернета, он может повторять неточные и неверные сведения. Это особенно опасно, когда пользователи обращаются за медицинскими, юридическими или другими важными рекомендациями, где точность особенно критична.

  • Приватности больше нет 

ChatGPT обрабатывает пользовательские запросы и может сохранять информацию о них. Стоит ли после этого утверждать, что все написанное в чате, останется там? Сомневаюсь. Пользователи могут случайно раскрывать личные данные или конфиденциальную информацию, а несанкционированный доступ к таким данным может привести к утечке или злоупотреблению информацией. Еще один важный момент: при «переписке» с ИИ сотрудники могут необдуманно поделиться коммерческой тайной.

  • Еще большая зависимость от технологий

Чрезмерное использование ChatGPT может привести к зависимости. Зачем думать, если есть инструмент, который сделает все за вас? Это снижает критическое мышление и навыки анализа информации у пользователей. Люди могут начать полагаться на ИИ для принятия решений. Это очень плохая идея, которая может привести к снижению их способности самостоятельно мыслить и анализировать информацию.

Самый главный совет

  • Не стоит полностью полагаться на ChatGPT

Используйте ChatGPT по мере необходимости. Не стоит писать дипломную работу, просить выполнить важные задачи по работе (особенно, если они носят конфиденциальный характер) или просто писать то, что не должны знать посторонние.

Как бы не был удобен этот инструмент, он никогда не станет идеальным, хотя бы потому, что работают с огромным количеством данных. Чат-боты на основе GPT способны на многое: от написания текстов и имитации разговоров до создания фейковых новостей. И в этом случае напрашивается главный вопрос: при таком арсенале инструментов, разве ИИ может быть гарантированно оставаться на нашей стороне?