Слияние кода завершено, страница обновится автоматически
Приватные вычисления, в основном, изучают методы защиты пользовательской конфиденциальности при обмене моделями (это мое личное понимание, а не официальное объяснение). В данном контексте методы атаки включают техники, которые позволяют извлечь конфиденциальную информацию пользователя из модели. Защитные методы, в свою очередь, направлены на противодействие этим атакам. Например, крупный банк может захотеть поделиться обученной моделью машинного обучения с другими организациями. Однако эта модель была обучена на данных, содержащих конфиденциальную информацию клиентов. Если модель будет просто передана, злоумышленники могут использовать техники, такие как атака по членству, чтобы извлечь конфиденциальную информацию. Чтобы предотвратить утечку данных клиентов, банк может использовать дифференциальную приватность для защиты от атаки по членству. Основные принципы этих методов будут подробно объяснены ниже.
Основная проблема приватных вычислений заключается в том, что сложно обеспечить модель, которая будет одновременно обладать хорошими защитными характеристиками и высокой точностью предсказаний. Обычно, чтобы предотвратить утечку конфиденциальных данных клиентов из модели машинного обучения, используются различные методы шифрования параметров обучения. Эти методы обычно снижают вероятность утечки конфиденциальных данных. Однако они также приводят к снижению точности предсказаний модели. В настоящее время в академической среде нет общепринятого решения для этой проблемы.
Основной элемент этого проекта - распознавание китайских рукописных цифр. В процессе обучения модели используются различные методы приватных вычислений. Конкретно, проект демонстрирует федеральное обучение (защитный метод), атаку по членству (атакующий метод) и дифференциальную приватность (защитный метод).
Общие характеристики набора данных показаны на рисунке 1.
Часть используемого набора данных показана на рисунке 1. Цель проекта - использовать глубокое обучение и методы приватных вычислений, чтобы обучить модель на этих изображениях и сделать её способной распознавать новые данные.
<div align=center>
Вы можете оставить комментарий после Вход в систему
Неприемлемый контент может быть отображен здесь и не будет показан на странице. Вы можете проверить и изменить его с помощью соответствующей функции редактирования.
Если вы подтверждаете, что содержание не содержит непристойной лексики/перенаправления на рекламу/насилия/вульгарной порнографии/нарушений/пиратства/ложного/незначительного или незаконного контента, связанного с национальными законами и предписаниями, вы можете нажать «Отправить» для подачи апелляции, и мы обработаем ее как можно скорее.
Комментарии ( 0 )