Kontakt
Germany
Fachgebiet
Ramin promovierte am Institut für Künstliche Intelligenz (KI) der Universität Stuttgart, wo er unter der Betreuung von Prof. Dr. Steffen Staab forschte. Seine Arbeit konzentriert sich auf Mensch‑Computer‑Interaktion und KI, insbesondere auf multimodale Interaktionstechniken, die Eye‑Tracking mit Touch‑Eingaben oder nicht‑lexikalischer Sprache kombinieren.
Während seiner Zeit an der Universität war er am EXIST‑geförderten Projekt Semanux beteiligt, das darauf abzielt, digitale Interaktion inklusiver zu gestalten, indem Menschen mit Behinderungen Computer anhand ihrer individuellen Fähigkeiten bedienen können.
Seine Forschung wurde auf führenden Konferenzen wie ACM CHI, ACM ETRA und INTERSPEECH veröffentlicht und umfasst sowohl neuartige Methoden des Eye Typing als auch maschinelle‑Lernverfahren zur Klassifikation nicht‑lexikalischer Stimmäußerungen, darunter eine INTERSPEECH‑Publikation aus dem Jahr 2023 zu Deep‑Learning‑Methoden für die Erkennung von Summ‑ und anderen nonverbalen Stimmeingaben. Darüber hinaus betreute er Lehrveranstaltungen in Human‑Computer Interaction, Information Retrieval und Machine Learning und begleitete zahlreiche Abschlussarbeiten.
Vor und nach seiner Promotion war er in der Industrie tätig, unter anderem bei Bliksund (Norwegen) und Union Betriebs‑GmbH (Bonn). Dort arbeitete er an verschiedenen IT‑Projekten, darunter ein Regelwerks‑Repository für die CDU sowie der persönlichen Webseite von Angela Merkel. Seine Expertise in multimodaler Interaktion und barrierefreier Computerunterstützung bringt er auch in seiner aktuellen industriellen Tätigkeit ein, unter anderem in der Weiterentwicklung von Tiltility, einem forschungsnahen System für kamerabasierte Interaktion.
Seine Dissertation ist über die Universitätsbibliothek Stuttgart verfügbar:
Spatiotemporal fusion of nonverbal voice & eye gaze for human-computer interactions
- Hedeshy, R., Menges, R., & Staab, S. (2023). CNVVE: Dataset and Benchmark for Classifying Non-verbal Voice Expressions. Interspeech 2023, August 20--24, 2023. Dublin, Irland.
- Hedeshy, R., Kumar, C., Lauer, M., & Steffen, Staab. (2022). All Birds Must Fly: The Experience of Multimodal Hands-free Gaming with Gaze and Nonverbal Voice Synchronization. INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION (ICMI ’22), November 7--11, 2022, Bengaluru, India. https://doi.org/10.1145/3536221.3556593
- Hedeshy, R., Kumar, C., Menges, R., & Staab, S. (2021). Hummer: Text Entry by Gaze and Hum. CHI Conference on Human Factors in Computing Systems (CHI ’21), May 8--13, 2021, Yokohama, Japan. https://doi.org/10.1145/3411764.3445501
- Hedeshy, R., Kumar, C., Menges, R., & Staab, S. (2020). GIUPlayer: A Gaze Immersive YouTube Player Enabling Eye Control and Attention Analysis. ETRA ’20 Adjunct: 2020 Symposium on Eye Tracking Research and Applications, Stuttgart, Germany, June 2-5, 2020, Adjunct Volume, 1:1–1:3. https://doi.org/10.1145/3379157.3391984
- Kumar, C., Hedeshy, R., MacKenzie, I. S., & Staab, S. (2020). TAGSwipe: Touch Assisted Gaze Swipe for Text Entry. CHI ’20: CHI Conference on Human Factors in Computing Systems, Honolulu, HI, USA, April 25-30, 2020, 1–12. https://doi.org/10.1145/3313831.3376317
- HCIIR SS2021
- Machine learning Tutorial SS2020
- Semanux
Semanux is developing technologies that make it possible to operate a computer via a combination of various input means, mostly eliminating the need for a mouse and a keyboard. More info at www.semanux.com - MICME
The MICME project aims to combine different technologies from gesture recognition, eye tracking, voice control, and AR/VR technology into a system that can be used in the operating room.