Законодавці пропонують класифікувати різні інструменти штучного інтелекту за рівнем ризику – від низького до неприйнятного.
Високо ризиковими можна вважати ті інструменти ШІ, що використовуються в критичній інфраструктурі, правоохоронних органах або освіті. Вони на рівень нижчі від “неприйнятних”, тому не підпадають під пряму заборону.
Залежно від того, наскільки ризиковим є ШІ, уряди та компанії матимуть різні зобов’язання щодо прозорості його використання.
Закон працюватиме в парі з іншими, такими як Загальний регламент про захист даних (GDPR).
Згідно з пропозиціями, компаніям, які порушують закон доведеться сплатити штраф у розмірі до 30 млн євро або 6% прибутку, залежно від того, що більше.
Для такої компанії, як Microsoft, яка підтримує творця ChatGPT OpenAI, це може означати штраф у понад 10 млрд дол, якщо порушення правил буде виявлено.
Коли закон набуде чинності поки невідомо. Галузь очікує, що цьогоріч, але конкретних термінів немає. Акт розглядають парламентарі, потім відбудеться обговорення між представниками Європарламенту, Ради Євросоюзу та Єврокомісії.