Interview mit Jürgen Hahn

Jürgen Hahn ist seit 2017 wissenschaftlicher Mitarbeiter am Lehrstuhl für Medieninformatik an der Universität Regensburg.

Von 2010 bis 2015 studierte Jürgen Hahn Medieninformatik an der Uni Regensburg. Der Titel seiner Bachelorarbeit lautete Montagetraining via Smartglass- Augmented Reality am industriellen Montageplatz. In den Jahren 2016 und 2017 arbeitete er neben seinem Masterstudium der Medieninformatik als Tutor für die Lehrveranstaltungen Entertainment Computing, Game Engineering und Digitalisierung und digitale Gesellschaft.

Sein Forschungsinteresse liegt bei den Themen Human Computer Interaction, Bildverarbeitung und MR / AR – Systeme.

Jürgen Hahn M.Sc.
Lehrstuhl für Medieninformatik

Einführung in die Informatik und Medieninformatik (BA, Übung) und Interaktionstechniken und -technologien (ITT) (Master)
Schwerpunktmäßig gehört das alles zu HCI

  • Einführung in Grundlagen von SVMs
  • Unterschiede zu nicht-linearen Verfahren (z.B. verschiedene Typen von Neuronalen Netzen)

In ITT verwenden wir SVMs, um konkrete Interaktionstechniken zu implementieren, deswegen ist das in diesem Seminar an dieser Stelle sinnvoll

Hin und wieder grübel ich, ob ich für ein bestimmtes Problem z.B. Machine Learning brauche, aber konkret gebraucht habe ich KI Technologien noch nicht in meiner Forschungsarbeit.
Meine Forschungsarbeit ist eher Grundlagenforschung und bisher taten sich nur Probleme oder Hürden auf, die nichts mit KI zu tun haben, sondern eben HCI und PL

Grundlagen Machine Learning (z.B. SVMs)
– Grundlagen gängiger Deep Learning (Convolutional NNs, Recurrent NNs, Feed-Forward NNs, Gradient Descent ) – aber ohne aktive Anwendung sehr eingerostet
– Aus Interesse habe ich mal ein Feed-Forward NN selber in C implementiert ohne Verwendung von Libraries außer libc
→ Das NN konnte logische Operatoren lernen (hat sehr gut funktioniert)

Ich glaube hier muss man differenzieren.
Schwer ist es, wenn man verstehen will was man tut. Also wirkliche Kenntnisse über die Grundlagen von z.B. NNs mit all der Mathematik und abstrakten Methodik
Leicht hingegen ist es, einfach irgendwas im Internet zu suchen, dass z.B. mit PyTorch, Tensorflow, etc. gemacht wurde und ungefähr auf das passt, was man selber machen will. Das Trial und Error-mäßig so hinzuhacken, dass es halbwegs funktioniert

Am meisten interessiert mich, wo und wann der gegenwärtige KI-Hype oder KI-Sommer endet.
Welche Probleme eine derartige Komplexität darstellen, dass wir entweder die Hardware dafür und/oder die Verfahren nicht haben.
Es wäre ja nicht das erste mal das auf einen KI-Sommer ein KI-Winter folgt.

KI ist wichtig in der Hochschulbildung und sollte definitiv in jedem Informatikstudiengang im Bachelor und Master behandelt werden.
Hier sollte ein Fundament anhand von Grundlagen aufgebaut werden, deren didaktische Herausforderung es ist, komplexe und abstrakte Sachverhalte anschaulich darzustellen.
Gegenwärtig passiert es meiner Meinung nach noch zu oft, dass wie oben gesagt einfach irgendwelche PyTorch oder Tensorflow Projekte aus dem Internet schnell von Studierenden so hingehackt werden, dass Sie auf ihr Problem passen. Allerdings fällt dann auch auf, das von den Grundlagen bzw. dem „Wissen was man tut“ nicht viel da ist. Da wird dann ein CNN verwendet und auf die Frage, was Convolution ist oder wieso ein CNN sich hier eignet, wird selten sinnvoll geantwortet.

Da ich keine Lehre mehr mache und bisher auch keine KI Themen in meiner Forschung hatte, habe ich nichts womit ich etwas zum Projekt „Wissen schafft2 Daten“ beitragen kann, zumindest meiner Auffassung nach

– fällt mir gerade nichts ein

Herr Hahn, vielen Dank dass Sie sich Zeit genommen haben, uns diese Fragen zu beantworten. Wir wünschen Ihnen noch einen schönen Tag!

Zuletzt bearbeitet am