• ach@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    1
    ·
    1 year ago

    Ich rede hier über die KI selbst und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht. Und da ist das Testen weder trivial noch lange nicht vollständig gelöst. Es einfach zu fordern hilft da wenig.

    Daher muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren. Entsprechend muss auch die Verantwortung für und Transparenz über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.

    • heeplr@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      1
      ·
      1 year ago

      und nicht was mit den Daten vor der Eingabe bzw. nach der Ausgabe geschieht

      Das ist aber das einzig relevante. Ein Modell selbst enthält nie wirklich schützenswerte Daten im Sinne des Datenschutz.

      muss mMn immer davon ausgegangen, dass solche KI es schafft Daten zu deanonymisieren

      Deswegen wird vorher getestet. Aber mit synthetischen Daten.

      Entsprechend muss auch die Verantwortung für und Transparenz

      Da bin ich voll bei dir. Wird auch gemacht soweit das technisch machbar und sinnvoll ist.

      über deren Nutzung sowie der gesammelten Eingabedaten strikt reguliert werden, wovon wir ja auch noch weit entfernt sind.

      Was würdest du vorschlagen, was über die EU Initiative hinaus geht?