Einsatz generativer künstlicher Intelligenz, Vorsicht bei der Vertraulichkeit der Daten
In den letzten Monaten ist der Einsatz von künstlicher Intelligenz (KI) explosionsartig angestiegen, dank Tools zur Texterzeugung wie ChatGPT oder zur Bilderzeugung wie DALL-E.
Die Qualität der erzeugten Texte und Bilder ist oft beeindruckend. Allerdings leiden diese Tools nicht selten an Halluzinationen, d. h. sie liefern Ergebnisse, die völlig ungeeignet für die gesendete Anfrage sind (Erfindung fiktiver Informationen). Daher muss ihre Zuverlässigkeit ständig hinterfragt werden.
Eine weitere Gefahr betrifft die Vertraulichkeit von Daten: Sie können KI z. B. einsetzen, um einen Text besser zu schreiben, ihn zusammenzufassen, zu übersetzen etc. Daher müssen Sie einen Basistext oder Bilder bereitstellen, die vertrauliche Informationen (Personennamen, Geschäftsgeheimnisse) enthalten könnten. Nun sind diese KI-Dienste aber in der Regel in der Cloud und im Ausland gehostet und Sie haben keine Ahnung, was mit den Anfragen, Texten und Bildern passiert, die Sie ihnen übermitteln: Werden sie von diesen Diensten zu Trainingszwecken gespeichert, werden sie an Marketingfirmen weiterverkauft, um Ihnen gezielte Werbung zu schicken?
Wir können Sie nur ermutigen, diesen Diensten kritisch gegenüberzustehen und keine vertraulichen Daten zu senden: Anonymisieren Sie alles, was Sie senden, es sei denn, Sie können sicher sein, dass die Verarbeitung lokal erfolgt oder dass der Dienst die Daten nicht für andere Zwecke auswertet, als Ihnen eine Antwort zu geben.