NIST Америки продолжает серию публикаций о федеративном обучении с сохранением конфиденциальности (PPFL). В отличие от традиционного централизованного обучения, решения PPFL не позволяют организации, обучающей модель, просматривать данные обучения. Однако обучение модели — это лишь небольшая часть рабочего процесса машинного обучения. На практике специалисты по данным тратят много времени на подготовку и очистку данных, обработку пропущенных значений, построение и выбор признаков. Проблемы могут возникнуть из-за некачественных или вредоносных данных, чтобы намеренно снизить качество обученной модели l.
Чтобы узнать больше об обучении модели ИИ, испанский регулятор AEPD недавно обсудил вариант использования: сеть с одним нейроном определяет, есть ли у человека избыточный вес, по сравнению с сетью, которая допускает более сложные классификации, но в равной степени может приводить к «галлюцинациям». С точки Список телемаркетинга Бенина зрения защиты данных вопрос заключается в выборе той, которая наиболее соответствует контексту и цели операции обработки. Например, выбранная структура требует такого количества выборок данных и такого разнообразия, что их невозможно получить или что их сбор не является пропорциональным или законным. Таким образом, цель не может быть достигнута на этапе проектирования.
Разработчики программного обеспечения: Итальянский регулятор Garante одобрил Кодекс поведения , который касается обработки персональных данных, осуществляемой компаниями, разрабатывающими и производящими программное обеспечение для управления. Такое программное обеспечение, предназначенное для компаний, ассоциаций, специалистов и государственных администраций, используется для выполнения налоговых и социальных обязательств, обязательств по обеспечению благосостояния и управления, составления финансовой отчетности, управления персоналом и корпоративных обязательств , оказывая существенное влияние на аспекты, связанные с защитой персональных данных.
Получайте наш дайджест по электр