Wer schreibt, der ... bleibt?

Wer schreibt, der ... bleibt?

Die Künstliche Intelligenz wird in den nächsten Jahren die Softwareentwicklung radikal verändern. Wir fragen Daniel, Philipp und Roman, wie sie die Zukunft sehen – und ob es in 10 Jahren noch Softwareentwicklerinnen und -entwickler geben wird.

Ihr beschäftigt euch mit den neuesten Werkzeugen und Technologien, die Einfluss auf die zukünftige Arbeitsweise in der Softwareentwicklung haben werden. Wann seid ihr das letzte Mal mit großen, ungläubigen Augen vor dem Bildschirm gesessen?

Philipp: Gestern (lacht). Ich habe wieder einmal Lovable1 getestet, eine KI zur Generierung von Benutzeroberflächen. Und da denkt man unweigerlich: Naja, die werden im Hintergrund einfach ein paar vorgefertigte Design-Templates haben – und passen diese dann mit KI an meine Anforderungen an. Aber ich habe fünf gänzlich verschiedene Szenarien ausprobiert, und jedes Mal war das Design so individuell und detailreich „on point“, das hat mich fasziniert.

Roman: Unlängst habe ich auf das Whiteboard gekritzelt, welche Felder ich zu einem Kunden speichern möchte: Firmenname, Steuernummer, Kontaktdaten, etc. Die Skizze habe ich dann mit dem Handy abfotografiert und Cursor AI2 gebeten, meinen Demo-Code dahingehend zu erweitern – und der generierte Code war einwandfrei. Vom Whiteboard zum Code in einer Minute, das war beeindruckend.

Welche Rolle spielt KI schon jetzt in eurem Arbeitsalltag?

Philipp: Bei mir hat sich die Herangehensweise beim Lösen von Problemen geändert. Früher habe ich gegoogelt, mir die Dokumentation durchgelesen und dann den Sourcecode geschrieben. Jetzt kann ich mir durch Tools wie Cursor AI oder Copilot direkt im Kontext meines Projekts Sourcecode generieren lassen. Nicht ganze Apps oder Features, aber doch mehrere Zeilen.

Daniel: Das sehe ich auch so, man muss derzeit aber noch die Verantwortung für den Code übernehmen. Ich muss es nicht aktiv schreiben können, aber verstehen, welchen Code die KI generiert hat.

Philipp: Vielleicht sind wir ja die letzte Coder-Generation, die das noch kann (lacht).

Wie geht das weiter? Verstehen wir im Jahr 2035 immer noch jede Zeile Code und lassen uns nur bei einzelnen Codeblöcken unterstützen – oder sieht unsere Arbeit revolutionär anders aus?

Roman: Das werden ganz spannende Jahre für unseren Beruf. Es wird weiterhin Menschen brauchen, aber der Prozess wird fundamental anders sein. Und die Geschwindigkeit auch. Ich glaube, dass wir in 10 Jahren nicht mehr jede KI-generierte Zeile lesen und abnicken werden.

Daniel: Entscheidend wird hier sein, wie gut es uns gelingt, die Probleme in den Griff zu bekommen, die die Tools in der Praxis derzeit noch haben. Manche Expertinnen und Experten prophezeien, dass die aktuellen Technologien hinter Copilot und Co. vielleicht schon das Maximum ihrer Leistungsfähigkeit erreicht haben, zumindest mit den bekannten Ansätzen. Auch Halluzinationen sind Teil der grundlegenden Funktionsweise von LLMs3. Aber 10 Jahre sind lange, und KI ist ja auch mehr als LLMs. Vermutlich gibt es irgendwann eine gänzlich neue Technologie.

Was bedeutet das für die Ausbildung? Braucht es andere Talente, andere Interessen für den Job? Wer sich heute für eine HTL entscheidet und anschließend studiert, wird 2035 ins Arbeitsleben einsteigen.

Philipp: Ich habe den Eindruck, dass mein gelerntes Wissen über verschiedenste Konzepte und Programmiersprachen notwendig ist, um der KI den Weg zu weisen und das Ergebnis zu kontrollieren. Das bleibt wichtig, denk ich. Die genaue Syntax ist nicht so entscheidend, Semantik ist wichtiger.

Roman: Ich gehe einen Schritt weiter: Ist Syntax, wie wir sie heute kennen, bald irrelevant? Ich habe in meiner HTL-Zeit Assembler gelernt – aber in welches Register welches Bit geschrieben wird, beeinflusst meine heutige Arbeit in keiner Weise. Ich frage mich, ob zum Beispiel C# eine gute Sprache ist, um als Mensch schnell erfassen zu können, ob die KI mich verstanden hat. C# wurde ja nicht als Sprache für KIs entwickelt, sondern um Menschen das Programmieren zu ermöglichen. Vielleicht braucht es hier auch Innovationen im Bereich der Sprachen – dann lesen wir in Zukunft genau so wenig C#, wie wir heute Assembler lesen.

Philipp: Spannender Gedanke. Ich fühle mich im Moment mit C# natürlich von der KI extrem gut verstanden – weil ich die Sprache sehr gut beherrsche und weil ich genau nachvollziehen kann, was passiert. Eine neue Sprache müsste genau so exakt sein und dürfte keinen Interpretationsspielraum offenlassen. Apropos Sprache: Auch in die Auswahl, welche Frameworks oder welche Programmiersprachen für die Ausbildung relevant sind, spielt die aktuelle Entwicklung hinein. Beispielsweise sind viele Tools viel stärker auf React als auf Angular trainiert.

Daniel: Spannend wird ja in dem Bereich auch, mit welchen Trainingsdaten mittelfristig ein Modell trainiert wird, wenn der Mensch keinen Code mehr schreibt.

Die Auswirkungen betreffen ja nicht nur angehende, sondern vor allem auch aktuelle Softwareentwicklerinnen und -entwickler.

Roman: Ja, man muss sich ganz ehrlich die Frage stellen, ob die zukünftige Arbeitsweise allen Spaß machen wird. Wenn ich mich für den Beruf deshalb entschieden habe, weil mich der algorithmische Denksport fasziniert, dann sind das schlechte Nachrichten.

Daniel: „Ich verwende keine KI-Tools, weil dann macht mir das Programmieren keinen Spaß mehr“ muss man sich leisten können.

Philipp: Die Architektenrolle sehe ich nicht gefährdet, aber vieles, was derzeit noch manuell entwickelt wird, kann die KI sicher lösen – möglicherweise sogar in besserer Qualität.

Roman: Ich seh das wirklich als ernstzunehmendes Problem. Ich vergleiche es mit der Musik: Sag einer Pianistin, dass sie nicht mehr Klavier üben soll, weil die generierten Töne besser klingen und fehlerfreier sind. Die wird deshalb auch nicht ab morgen am Computer statt am Konzertflügel sitzen, aber man darf – vor allem als Unternehmen –nicht die Augen verschließen. Sonst scheitert man in Freude.

Apropos Scheitern: Wo seht ihr Gefahren?

Philipp: Ich habe ethische Bedenken. Generiert mir die KI alles, was ich von ihr verlange?

Roman: Ich sehe auch ein zentrales Versprechen der Softwareentwicklung gefährdet: Dass du als junger Mensch mit einem Laptop um 400 Euro einsteigen und etwas programmieren kannst. Kostenlose Entwicklungsumgebungen, Open Source, etc. – vielleicht steht dem gegenüber irgendwann ein einzigartiges, mächtiges, monopolartiges KI-Tool, an dem man nicht vorbeikommt. Und das wird dann nicht mehr 20 $ im Monat kosten, sondern deutlich mehr.

Daniel: Die rechtliche Seite ist sicher auch ein Thema. Wer trägt die Verantwortung für Fehler der KI? Wo wird wie viel reguliert? Was dürfen wir bauen?

Wofür braucht es die softaware gmbh auch in den nächsten 10 Jahren?

Daniel: KI ist ein Werkzeug. Man muss den Stand der Technik kennen, die Bedienung beherrschen, den Prozess begleiten. Das wird eher unübersichtlicher und schwieriger – dafür wird es uns brauchen.

Philipp: In der ersten Phase ist unser Verständnis sicher viel Wert: Wir können das Versprechen abgeben, in dieser Early-Adopter-Phase in keine Tool-Sackgasse zu geraten. Wir verstehen den Code und können jederzeit wieder übernehmen. Für kleinere Apps benötigt man zukünftig sicher kein abgeschlossenes Software-Engineering-Studium mehr, aber komplexere Projekte werden weiterhin auf die Expertise von erfahrenen Menschen zählen.

Roman: Unsere Kunden wollen jemanden haben, der mitdenkt, sich um die Anliegen kümmert, die Qualität sicherstellt und am Ende Verantwortung übernimmt. Das wird auch 2035 nicht anders sein.

Danke für das Gespräch.


  1. https://lovable.dev ↩︎

  2. https://www.cursor.com ↩︎

  3. Large Language Model, Sprachmodell zur Textgenerierung wie z.B. bei ChatGPT ↩︎