Kehrseiten der KI
Qualität kostet

Momentan wird viel in der Öffentlichkeit über die Verlässlichkeit des Einsatzes von Künstlicher Intelligenz (abgekürzt KI oder AI für Artificial Intelligence auf Englisch) oder über die Datenschutz-Fragen, die das Thema mit sich bringen diskutiert.

Weniger werden dabei die Kosten betrachten, den der Einsatz von KI für Lehrende und Lernende bedeutet. Das ist aber wichtig:

Wer privat mal eben ein paar Prompts* absetzt, wird Kosten nicht so sehr spüren. Als Bildungsanbieter, der KI für Lehrende und Lernende ermöglicht, kann das aber ein relevanter Faktor werden.

Die Währung der KI für den Anwender sind die Token. Man bezahlt für eine bestimmte Anzahl von Token. Die Erfahrung zeigt, dass die Qualität der KI-Antworten von der genauen Beschreibung in der Anfrage, dem Prompt, abhängt. Ein gut formulierter Prompt wird mit der Erfahrung der Anwender länger und wird oft mehrfach mit immer genaueren Angaben übergeben.

Ein Prompt mit 1.000 Worten kostet etwa 1.000 oder leicht mehr Token. Berechnet wird die Anfrage und die Antwort. Die Preise variieren bei OpenAI, je nachdem welches Modell man verwendet. Quelle: OpenAI

Bei ChatGPT kostet ein Prompt mit 1.000 Token etwa 0,06 USD und für die Antwort 0,12 USD. Dazu ein kleines Rechenmodell:

•  5x Anfrage mit verbessertem Anfragetext = 5.000 Token = 0,30 USD
•  5x Antworten mit je 1.500 Worten = 8.000 Token = 0,96 USD
•  Die Erstellung von 30 Testfragen auf Basis eines 5.000 Worte umfassenden Text
   mit dreimaliger Optimierung dürfte grob mit 1,20 - 1,50 USD zu Buche schlagen.Die

Einzelwerte sind sicher tragbar. Bei vielen Lehrenden und Lernenden sollte man jedoch das Budget aber gut im Blick behalten.

Werden die Preise sinken? Vermutlich nicht. KI-Technologie verursacht einen hohen Energieverbrauch. Obwohl wir versuchen, in allen Bereichen den Energieverbrauch zu reduzieren, verursachen heutige Rechenzentren ca. 4 - 5% des weltweiten Energieverbrauches. Es gibt Schätzungen, dass dieser Anteil in den nächsten Jahren auf 30% des globalen Energieverbrauchs steigen könnte. So soll Eine ChatGPT-Suchanfrage etwa die zehnfache Energiemenge einer Google-Suche benötigen.
Quellen:
1. de Vries, Alex. (2023). The growing energy footprint of artificial intelligence.
2. ChatGPT soll täglich soviel wie 17.000 US-Haushalte verbrauchen

Wenn wir in Betracht ziehen, dass Energie in den kommenden Jahren teurer wird, so können wir davon ausgehen, dass KI-Dienste sicher nicht günstiger werden.

Fazit: Für Lehrenden und Lernenden ergeben sich zwei relevante Preistreiber: die Kosten der Dienste selbst und die von der Qualität der Suche (in der Formulierung der Prompts) abhängige Kosten.
              *Prompt =Texteingabe, mit der man eine KI zu einer bestimmten Aktion auffordert