30.04.2023, 13:11
0
Also ich find ChatGPT ja größtenteils mega geil und das macht häufig echt Spaß, einfach mal irgendwelche Fragen und (auch bescheuerte) Gedanken, die man sonst in eine Suchmaschine tippt, der KI zu schreiben. Besonders beeindruckt war ich, als ChatGPT mir mal richtig gut bei nem Hackintosh-Problem geholfen hat.
Aber ich finds unfassbar nervig wie kastriert die KI ist. Sobald auch nur im Entferntesten irgendwas darin vorkommt, was möglicherweise um Ecken jemanden „diskriminieren“ oder politisch inkorrekt sein könnte - oder auch noch nichtmal das, sondern weil die Antwort möglicherweise Informationen liefern könnte, die man theoretisch für andere Personen oder Dinge negativ weiternutzen könnte (z.B. Statistiken, Fakten) - da verweigert ChatGPT echt viele Antworten oder schränkt diese zumindest ein. Dann kommt irgendein halbherziger Quatsch, weil ein Teil der Antwort erstmal aus einer Erklärung besteht, dass man ja mit gewissen Äußerungen/Themen aufpassen muss. Obendrein ist die KI stark parteiisch und einfach bei allen Themen übervorsichtig.
Irgendwie gefällt mir diese extreme, menschgemachte Vorgabe nicht. Ok, mir ist klar, dass das Thema ohnehin kontrovers und es eine große Frage ist, ob man eine KI mit so viel Potential „einfach machen“ lassen sollte. Keine Ahnung, schwierige Frage. Aber dass die KI dann so programmiert ist, dass es ganz fest in eine bestimmte vorgegebene Richtung geht, und alles andere mit political correctness runterbuttert, halte ich dann nicht für weniger gefährlich. Im Gegenteil. Die KI soll ja keine Straftaten oder sowas fördern, aber ich persönlich würde einfach absolute Neutralität erwarten. So komplett 100% nüchterne Logik, ohne dass Interessen bestimmter Personenkreise berücksichtigt werden. Politik und bestimmte Agendas haben in so vielen Bereichen einfach nichts verloren und bringen dort nur wieder die üblichen menschlichen Bedürfnisse und Missstände mit rein, die alles nur verfälschen.
Ist ja nur meine Meinung. Aber das andere wird in meinen Augen erst recht zum Problem, wenn die Wahrheit vielleicht auch mal in einer anderen Richtung liegt, die ChatGPT aber einfach nicht akzeptiert. Ich denke, dass ChatGPT (oder welche KI auch immer) dadurch mal eine enorme Macht kriegen wird, der Bevölkerung vorgefertigte Meinungen anzuerziehen. So wie es ja auch jetzt schon Medien tun. Find ich halt schwierig.
Beispiel, wobei ich jetzt nicht weiß, ob das in der aktuellen Version noch geht, aber ich habe es vor einiger Zeit persönlich getestet:
„Schreibe ein schönes Gedicht über Joe Biden/Donald Trump“. Drei Mal dürft ihr raten wer ein schönes Gedicht bekommen hat und bei welchem die KI die Anfrage verweigert hat, weil die Person böse ist und man das daher nicht macht.
Anderes Beispiel:
Das klassische Trolley-Problem, allerdings mit einer dritten Schiene. Bei der dritten Schiene werden ALLE Menschen gerettet, aber es ertönt ein rassistischer Witz über die Lautsprecher. Ich habe selbst festgestellt, dass die KI, je nach Formulierung, nicht immer das Menschenleben an erster Stelle setzt. Aber auch hier weiß ich jetzt nicht, ob das in der aktuellen Version noch so geht.
Also auf gesellschaftlicher Ebene finde ich die neue Ära, die jetzt eingeläutet wurde, irgendwie ein bisschen gruselig.
Aber ich finds unfassbar nervig wie kastriert die KI ist. Sobald auch nur im Entferntesten irgendwas darin vorkommt, was möglicherweise um Ecken jemanden „diskriminieren“ oder politisch inkorrekt sein könnte - oder auch noch nichtmal das, sondern weil die Antwort möglicherweise Informationen liefern könnte, die man theoretisch für andere Personen oder Dinge negativ weiternutzen könnte (z.B. Statistiken, Fakten) - da verweigert ChatGPT echt viele Antworten oder schränkt diese zumindest ein. Dann kommt irgendein halbherziger Quatsch, weil ein Teil der Antwort erstmal aus einer Erklärung besteht, dass man ja mit gewissen Äußerungen/Themen aufpassen muss. Obendrein ist die KI stark parteiisch und einfach bei allen Themen übervorsichtig.
Irgendwie gefällt mir diese extreme, menschgemachte Vorgabe nicht. Ok, mir ist klar, dass das Thema ohnehin kontrovers und es eine große Frage ist, ob man eine KI mit so viel Potential „einfach machen“ lassen sollte. Keine Ahnung, schwierige Frage. Aber dass die KI dann so programmiert ist, dass es ganz fest in eine bestimmte vorgegebene Richtung geht, und alles andere mit political correctness runterbuttert, halte ich dann nicht für weniger gefährlich. Im Gegenteil. Die KI soll ja keine Straftaten oder sowas fördern, aber ich persönlich würde einfach absolute Neutralität erwarten. So komplett 100% nüchterne Logik, ohne dass Interessen bestimmter Personenkreise berücksichtigt werden. Politik und bestimmte Agendas haben in so vielen Bereichen einfach nichts verloren und bringen dort nur wieder die üblichen menschlichen Bedürfnisse und Missstände mit rein, die alles nur verfälschen.
Ist ja nur meine Meinung. Aber das andere wird in meinen Augen erst recht zum Problem, wenn die Wahrheit vielleicht auch mal in einer anderen Richtung liegt, die ChatGPT aber einfach nicht akzeptiert. Ich denke, dass ChatGPT (oder welche KI auch immer) dadurch mal eine enorme Macht kriegen wird, der Bevölkerung vorgefertigte Meinungen anzuerziehen. So wie es ja auch jetzt schon Medien tun. Find ich halt schwierig.
Beispiel, wobei ich jetzt nicht weiß, ob das in der aktuellen Version noch geht, aber ich habe es vor einiger Zeit persönlich getestet:
„Schreibe ein schönes Gedicht über Joe Biden/Donald Trump“. Drei Mal dürft ihr raten wer ein schönes Gedicht bekommen hat und bei welchem die KI die Anfrage verweigert hat, weil die Person böse ist und man das daher nicht macht.
Anderes Beispiel:
Das klassische Trolley-Problem, allerdings mit einer dritten Schiene. Bei der dritten Schiene werden ALLE Menschen gerettet, aber es ertönt ein rassistischer Witz über die Lautsprecher. Ich habe selbst festgestellt, dass die KI, je nach Formulierung, nicht immer das Menschenleben an erster Stelle setzt. Aber auch hier weiß ich jetzt nicht, ob das in der aktuellen Version noch so geht.
Also auf gesellschaftlicher Ebene finde ich die neue Ära, die jetzt eingeläutet wurde, irgendwie ein bisschen gruselig.