Нельзя не упомянуть недавнюю
утечку данных. Событие скорее забавное, чем тревожное: пользователи сразу же обнаружили, что база оказалась в открытом доступе, и начали писать сотрудникам компании в LinkedIn. Доступ закрыли через полчаса, но остается неизвестным, успел ли кто-то сохранить файлы. В базе находились логины пользователей, списки чатов и загруженные документы. В результате конгрессменам США и сотрудникам BMC
запретили скачивать и использовать чат-бот.
Кроме того, у многих вызывает вопросы качество данных, на которых обучался бот. Недавно всплыли любопытные подробности: DeepSeek обучали на общедоступных материалах, включая тексты, созданные ChatGPT и другими ИИ-ботами. Сам разговорный бот выдал себя в беседах, где неожиданно
представился ChatGPT и даже продуктом компании Yandex. Сейчас эти галлюцинации исправили, но осадок остался.
Еще один нюанс — у r1 нет памяти, в отличие от моделей GPT. Промпты придется вводить заново при каждом запросе. Например, ChatGPT-4o можно поручить исправлять ошибки в тексте, не меняя в нем слова. Он будет следовать инструкции на протяжении 5–6 сообщений, а затем ее придется обновить. DeepSeek же справляется с большинством сложных задач, таких как написание кода или решение уравнений, но делает это медленнее — иногда на выполнение уходит до двух минут. GPT и Claude справляются за считанные секунды.
Мы попросили DeepSeek и GPT-4o написать каноническое уравнение прямой, проходящей через точки A=(2;2;5) и B=(0;2;−4). Оба бота справились, но у китайской модели ушло более минуты на расчеты.