Безопасность работы в Cursor AI
Как вы считаете, безопасен ли в использовании Cursor AI с точки зрения производства коммерческого продукта?
Знаю такую вещь, что нейросети часто обучаются на входящих данных и по сути могут «сливать» коды в скормленных промптах. Курсор же имеет доступ вообще ко всему проекту, вот тут и стоит вопрос конфиденциальности и безопасности продукта
Интересно ваше мнение, прошу не кидаться камнями!)
Ответы (1 шт):
Да, любой "внешний" ИИ небезопасен, туда может утечь всё, что угодно, даже без злого умысла его создателей. Наверняка они сохраняют у себя различную инфу для дальнейшего обучения моделей. А это может быть всё, что вы показали ИИ. Там могут оказаться персональные данные, пароли, что угодно. Да даже просто в логах доступа это всё может оказаться, а дальше утечь куда угодно.
Поэтому в серьёзных конторах настраивают свои сервера с локально работающим ИИ, не имеющие контакта с внешним миром. Вот там, со специальным внутренним ИИ своей конторы, можно спокойно делиться всем подряд.
А "внешнему" ИИ можно показывать только то, что вам не жалко показать всему миру.