Безопасность работы в Cursor AI

Как вы считаете, безопасен ли в использовании Cursor AI с точки зрения производства коммерческого продукта?

Знаю такую вещь, что нейросети часто обучаются на входящих данных и по сути могут «сливать» коды в скормленных промптах. Курсор же имеет доступ вообще ко всему проекту, вот тут и стоит вопрос конфиденциальности и безопасности продукта

Интересно ваше мнение, прошу не кидаться камнями!)


Ответы (1 шт):

Автор решения: CrazyElf

Да, любой "внешний" ИИ небезопасен, туда может утечь всё, что угодно, даже без злого умысла его создателей. Наверняка они сохраняют у себя различную инфу для дальнейшего обучения моделей. А это может быть всё, что вы показали ИИ. Там могут оказаться персональные данные, пароли, что угодно. Да даже просто в логах доступа это всё может оказаться, а дальше утечь куда угодно.

Поэтому в серьёзных конторах настраивают свои сервера с локально работающим ИИ, не имеющие контакта с внешним миром. Вот там, со специальным внутренним ИИ своей конторы, можно спокойно делиться всем подряд.

А "внешнему" ИИ можно показывать только то, что вам не жалко показать всему миру.

→ Ссылка