Inhaltszusammenfassung:
Deep Learning ist ein entstehender Bereich der künstlichen Intelligenz, der bereits unzählige industrielle und gesellschaftliche Aspekte der modernen Welt revolutioniert hat. Trotz seiner beeindruckenden Ergebnisse hat der Bereich des Deep Learnings noch viele ungelöste Probleme, und die besorgniserregendsten beziehen sich auf seine Robustheit, Vertrauenswürdigkeit und Sicherheit. Zeitgenössische Deep Learning Modelle haben sich durchweg als anfällig für gegnerisch gestaltete Störungen der Eingabe wie unmerkliches Rauschen oder ein kleiner Patch erwiesen. In dieser Dissertation befassen wir uns mit den Problemen der Bewertung und Verbesserung der Robustheit von Deep Learning. Wir schlagen einen Ansatz vor, den wir Meta Square Attack nennen, um die Suchverteilung von Black-Box-Zufallssuche-basierten gegnerischen Angriffen auf Deep-Learning-Modelle zu meta-lernen, um die Bewertung der Black-Box-Robustheit zu verbessern. Wir untersuchen zertifizierte Abwehrmaßnahmen gegen gegnerische Patch-Angriffe, die eine garantierte Untergrenze für die Robustheit des Modells in diesem Bedrohungsmodell bieten. Wir schlagen BagCert vor, das ein durchgängiges Training und eine effiziente Zertifizierung der Klassifikationsmodelle ermöglicht. Wir schlagen auch einen auf Inpainting basierenden Ansatz namens Demasked Smoothing vor, der die erste Methode ist, um die Robustheit semantischer Segmentierungsmodelle gegenüber gegnerischen Patches zu zertifizieren. Demasked Smoothing kann mit willkürlichen Segmentierungsmodellen arbeiten und erfordert kein zusätzliches Training.