• AggressivelyPassive
    link
    fedilink
    Deutsch
    151 year ago

    Wow, für die beiden Wochen in denen das nicht umgangen wird, wird das bestimmt hilfreich sein.

    • @[email protected]
      link
      fedilink
      Deutsch
      31 year ago

      Der spätere Teil is wohl der interessante, während dieser Manipulationschutz eher technische Spielerei ist: Die Wasserzeichen.

      In einer Welt, in der Bilder und Filme leicht manipulierbar sind, wird es Zeit für standardmäßige kryptographische Signierung von Quellen.

  • @Lekip
    link
    Deutsch
    11 year ago

    Interessanter Ansatz, aber vermutlich nicht wirklich hilfreich. Wie im Artikel erwähnt, kann man natürlich alte Bilder nach wie vor benutzen, um damit AIs zu Speisen. Grade von den celebrities dieser Welt gibt’s davon mehr als genug, von vielen von uns auch. Täuschend echte Fälschungen Mithilfe von LORAs können dann auch komplett neue Bilder der Betroffenen generieren. Das wird im Artikel nicht erwähnt. Mich würde auch interessieren, was zum Beispiel passiert, wenn man in einer Bildverarbeitungs Software beispielsweise einen sehr leichten Blur über das Bild legt - funktioniert es dann wieder? Die Details kann man mit den gleichen Tools aus dem Artikel (Stable diffusion) wieder “zurück-generieren” wenn überhaupt notwendig. Ich zweifle daran, ob solche protection-tools eine Chance haben, mit der Entwicklung der AI mitzuhalten, besonders wenn die Menge an zugänglichen AIs steigt. Das end-ziel der AI Entwickler wird es ja vermutlich sein, dass die AI sehr Menschen-ähnlich erkennt und erdenkt. Wenn wir da ein mal nah dran sind, wird es wohl schwer Bilder so zu sichern, dass es Menschen nicht auffällt. Dennoch grade technisch sehr interessant. Schade dass der Artikel nicht mehr auf die angewandte Methode eingeht. Werde auf jeden Fall mal nachlesen was genau da passiert