Neue Nähe Hackathon Teil 4: Sonntag, 03.07.2017: Das Finale!

Dieser Tag begann früher als der erste. Wir packten unsere Sachen zusammen und machten uns ohne Frühstück auf den Weg zum Hackathon. dafür gab es dort kleine leckere Croissances und gebackenes Schneckenförmige Gebäck mit Obstfüllung! Die Teams bereiteten alles für ihre Präsentationen vor. Jedes Gruppe hatte insgesamt fünf Minuten Zeit, um das Produkt kurz vorzustellen. Ich war aufgeregt, schließlich war ich nicht bei allen Vorstellungen der Produkte gestern Abend dabei gewesen und kannte deshalb viele nicht.

Es waren insgesamt 12 Projektgruppen, die sich vorstellten. Ein Teilnehmer hatte sogar alleine gearbeitet. Drei Projekte drehten sich um die Verwendung von Haushaltsgeräten mit Touchscreen, inspiriert an den Vortrag von Bahaddin. Wir konnten also ziemlich viel Kaffee trinken 🙂

 

Ein anderes, sehr interessantes Projekt, war die Möglichkeit, mit Sonar Produkte beim Einkaufen zu erkennen. Ein weiteres Projekt, einen Notruf abzusetzen für alle Formen der Behinderung möglich zu machen.

Es waren so viele interessante Ideen an nur einem Wochenende entstanden! Ich war ganz baff und glücklich! Auch, wenn ich selbst, wie ich wahrscheinlich tausendmal an diesem Wochenende betonte, nicht programmieren kann, so bin ich eine betroffene, für die durch die Weiterentwicklung dieser Produkte so vieles erleichtert werden könnte!

 

Nach den Präsentationen gab es eine Pause, in der sich die Jurymitglieder berieten. Ich wollte diese Gelegenheit nutzen, um das Einkaufsprojekt zu testen. Als ich gerade dabei war, es mir genauer anzusehen, tauchte plötzlich Marco auf. Er fragte, ob ich kurz mitkommen könne. Als ich mich nach dem Grund erkundigte, teilte er mir mit, dass ich in die Jury aufgenommen worden war. Ich war so überrascht, freute mich aber riesig darüber! Er begründetet es damit, dass ich keine Programmierkänntnise hätte und das ein Vorteil wäre, da ich unparteiisch sei und nicht an der Entstehung der Produkte mitgearbeitet hatte. Also hat es doch etwas Gutes, an einem Hackathon keine Programmierkentnisse zu haben.

Wir gingen in einen anderen Raum, wo auch schon die anderen Jury Mitglieder saßen. Unter anderem Tom-Flo, der heute ein neues Namensschild, Stephanie, trug, Ulli und Alexandra von der Aktion Mensch, eine weitere Frau namens Uli, eine Bekannte von Marco, die ebenfalls stark an der Organisation beteiligt war,

Andreas Costrau der Gebärdensprachler. Da andere seine Sprache nicht beherrschen, hat er stets Dolmetscher für Laut und Gebärdensprache dabei.

Dennis, der vom Hals abwärts gelähmt ist, seine Mutter und andere, die ich nicht kannte. Wir alle sollten nun entscheiden, welche drei Teams den Hackathon gewinnen. Die Wahl fiel wirklich unsagbar schwer, denn es waren einfach zu viele tolle Projekte. Wir einigten uns schließlich, nach dem jedes Jurymitglied drei Favoriten abgegeben hatte. Die Siegerehrung konnte beginnen!

 

Bei der Siegerehrung war der Pressesprecher der Aktion Mensch anwesend, um diese zu moderieren.

Dennis wurde zuerst auf die Bühne geholt.

Florian und er hatten während des Hackathon zuerst die Sprachsteuerung der HoloLens getestet und später noch einen externen Klicker, um den Hauptbefehl „Select“ ausführen zu können. Dafür wurde der Klicker unter seinen Ellbogen gelegt, sodass es ihm möglich war, das Klicken über seine Schulter aus zu führen.

Das klappte sehr gut.

Da Dennis vom Hals abwärts gelähmt ist, kann er nur seinen Kopf und die Schultern bewegen. Den Computer bedient er mit einer Mundmaus. Das ist wie ein Joystick der sich mit dem Mund bedienen lässt. Über Saug- und Blasfunktionen kann er dann die Klicks oder andere Tastaturbefehle auslösen. Dafür hat das Mundstück drei Löcher. Die Belegung ist nicht festgesetzt und kann nach den individuellen Bedürfnissen angepasst werden. Dennis schreibt meistens mit Hilfe einer Bildschirmtastatur mit Wortvorschlägen. Nur bei großen Texten verwendet er eine Spracherkennung.

 

Schließlich wurden die Gewinner bekannt gegeben: Den dritten Platz belegte „GreenDrop“, eine Anwendung, die es ermöglicht, mit Diagrammen beispielsweise einen Skypeanruf zu tätigen oder das E-Mail-Programm zu starten.

Den zweiten Platz belegte das Multi-inklusionstool für automatische Notruf und Hausautomatisierung. Dies ermöglicht es für alle Behinderungsgruppen, notrufe abzusetzen.

 

Den ersten Platz belegte „Birne 7.0“, bestehend aus sieben Mitgliedern, die es sich zur Aufgabe machen wollen, eine Website zu kreieren, die Menschen mit Behinderungen und Programmierer zusammenbringen soll. Es war das Projekt, an dem ich auch ein wenig mitgearbeitet hatte.

Alle Infos zu den einzelnen Projekten mit genauer Beschreibung findet ihr hier

 

Nach der Siegerehrung wurden noch Fotos mit den Gewinnern geschossen. Es ist wirklich großartig, was Menschen an einem Wochenende alles erreichen können! Und noch besser ist es, dass sie es für Barrierefreiheit für alle tun!

 

Dann war es leider Zeit, sich zu verabschieden. Mit einigen, die ich während der Veranstaltung kennenlernte, hielt ich weiter über Facebook kontakt.

Ich nahm Flos Angebot an, mich nach Hause zu fahren. Er hätte mich zwar auch einfach in den Regionalzug in Nürnberg setzen können, aber so kam ich noch mal in den Genuss, Elektroauto zu fahren. Wir nahmen auch Andreas mit.

Flo, Andreas und ich saßen im Auto und unterhielten uns. Andreas ist es möglich zu sprechen und er kann von den Lippen ablesen. Deshalb ist es ihm sehr wichtig, NICHT als „Taubstumm“ bezeichnet zu werden! Plötzlich klingelte mein handy. Es war Alexandra, die mir mitteilte, dass ich meinen Rucksack beim Veranstaltungsort vergessen hatte! Oh nein war mir das peinlich! Andreas aber meinte gelassen: „Die Menschen vergessen so oft an Barrierefreiheit zu denken, da macht es nichts, wenn auch wir mal etwas vergessen.“ Dieser Satz gefiel mir und die Situation wurde weniger unangenehm. Also machten wir uns wieder auf den Weg und holten meine Tasche und fuhren dann endlich nach Nürnberg zum Hauptbahnhof. Flo erzählte mir, dass es in Nürnberg automatisch fahrende U-Bahnen gibt.

Noch nie hatte ich in Nürnberg die U-Bahn genutzt und da Andreas sowieso damit fahren musste, beschlossen wir, ihn eine Station zu begleiten.

Da wir durch meinen Schwerbehindertenausweis kostenlos fahren konnten, war das kein Problem. Florian erzählte, dass er leidenschaftlich gern U-Bahn fährt und ich fand, dass dies eine gute Möglichkeit war, mich für den Umweg, den er extra meinetwegen machen musste, zu revanchieren. Wir machten es also genauso wie geplant, fuhren eine U-Bahnstation mit Andreas, dann wieder zurück und anschließend mit dem Auto zu Flos Oma. Wir wurden herzlich empfangen und ich entschuldigte mich ausführlich für unser zu spät kommen. Sie erklärte mir, dass sie das schon gewohnt sei und dann gab es einen leckeren Kirschkuchen und Kaffee. Normalerweise mochte ich keinen Kaffee, aber aus Höflichkeit trank ich einen mit. Der Kuchen war so lecker. Nach einer Weile verabschiedeten wir uns wieder und fuhren zur nächsten Ladestation. Ich bot Flo an, bei uns zu übernachten, da er am nächsten Morgen wieder zu Microsoft musste. und mein zu Hause kürzer davon entfernt war, als seines. Er zögerte kurz, fand aber die Idee dann doch ganz praktisch . Ich rief meine Eltern an, um ihnen bescheid zu sagen. Meine Mutter war, glaube ich, erst ein wenig skeptisch, aber nach dem ich ihr erzählte, dass er mich extra nach Hause fuhr, sagte sie dann doch, dass es ginge. Nach dem Gespräch war Flo sich nicht sicher, aber ich beteuerte immer wieder, dass es kein Problem sei. Also fuhren wir noch mal zur nächsten Ladestation, luden das auto 30 Minuten lang auf, vertrieben uns die Wartezeit mit Quizduell spielen und fuhren dann anschließend endlich zu mir nach Hause. Meine Eltern begrüßten uns und mein Vater und Flo unterhielten sich sofort. Meine Mutter richtete für Flo das Gästezimmer im Obergeschoss her. Wir erzählten dann noch ein wenig, was wir bei dem Hackathon erlebt hatten. Meine Eltern konnten sich nämlich nicht wirklich vorstellen, was man dort tat.

Wir sahen uns eine kleine Berichterstattung über den Hackathon an und regten uns ein wenig über die Begrifflichkeiten auf, die verwendet wurden

Die Leute wissen es leider nicht besser…

 

Danach gingen wir nach oben in Flos zimmer und spielten noch ein wenig Sims. Wir mussten ja schließlich unser Haus noch fertig einräumen. Nach einer Weile hörten wir aber wieder auf, da wir beide ziemlich müde waren und Flo morgen um 6:30 aufstehen wollte. Wir würden dann noch zusammen frühstücken, bevor er zu Microsoft fuhr.

 

Mein wecker klingelte also um 6:30. Eine sehr frühe Uhrzeit für einen Morgenmuffel, wie ich es bin.

Ich stand aber auf, denn ich wollte noch kurz Zeit mit Flo verbringen. Mein Vater war natürlich schon wach, nur Flo fehlte… Ich schrieb ihm, ob er schon wach sei. Er antwortete, dass er gleich komme. Das „gleich“ war dann um kurz vor sieben. Wir frühstückten den Kuchen seiner Oma. Anschließend machte Flo sich auf den Weg zu Microsoft. Ein wenig wehmütig war ich schon, dass er wieder zu dem Ort fahren durfte, an dem ich ein halbes Jahr gearbeitet hatte. An dem ich Freunde gefunden hatte. Dort hatte ich gelernt, meine Blindheit zu schätzen und sie sogar als geschenk an zu sehen. Aber es würde auch wieder eine neue Zeit anbrechen, in der ich lernen und mich weiterentwickeln konnte!

 

Ihr seht also, wie viel Aufregung man an einem Wochenende erleben kann. Ich bedanke mich bei allen, die dabei gewesen sind und für alle tollen Projekte, die entstanden, um Barrierefreiheit zu ermöglichen.

Diese drei Tage haben mir so viel über Menschen unterschiedlicher Behinderung beigebracht. Eine wahre Horizonterweiterung!

 

Also, bis zum nächsten Hackathon und wenn ihr nicht so lange warten wollt, bis zum nächsten Blogeintrag! 🙂

 

Neue Nähe Hackathon Teil 3: Samstag, 01.07.2017: Technik, Technik und verschlossene Türen bei Nacht

Tag zwei startete mit einem leckeren Frühstück im Hotel, das für mich aus einem Obstsalat bestand. Morgens esse ich nicht so viel.

Gestärkt machten wir uns wieder auf den Weg zum Veranstaltungsort des Hackathon. Dort waren die Leute bereits fleißig am tüfteln und coden. Wahrscheinlich waren sie noch bis spät in die Nacht auf gewesen, um an Lösungen zu arbeiten! Dieses Engagement ist wirklich großartig!

Ich saß an einem Tisch mit den Leuten vom PICSL Labor und unterhielt mich viel mit Elisabeth. Sie kann nicht lesen und schreiben erzählte mir aber, dass sie, um am Computer in Facebook zu kommunizieren, eine Sprachausgabe nutzt. Das fand ich sehr beeindruckend, da ich irgendwie immer davon ausging, dass die Sprachausgabe nur von blinden und Sehbehinderten Menschen genutzt wird. Es war sehr bereichernd, dieses Gespräch mit ihr zu führen. Dann sprach mich ein Herr im Rollstuhl an. Er ist der Geschäftsführer von ACCESS-IFD, einem Unternehmen, welches sich in Erlangen dafür einsetzt, Menschen mit Behinderung bei der Vermittlung in Arbeit bzw. Praktika zu unterstützen.

Er gab mir einige hilfreiche Tipps, an welche Organisationen ich mich bezüglich Unterstützung zur Jobsuche wenden konnte. Danach ging es zum Mittagessen. Ich unterhielt mich mit einer der Helferinnen des Hackathon. Dann ging es weiter mit drei Fachvorträgen. Diese waren sehr techniklastig, weshalb sie sehr schwer für mich zu beschreiben sind. Im ersten und im zweiten Vortrag wurde jeweils ein Video von der App Seeing AI gezeigt, die von einem blinden App-Entwickler bei Microsoft programmiert wird. Diese hilft im Alltag, z. B. kann sie Schwarzschrifttexte vorlesen und vieles mehr.

 

Nach den Vorträgen hatte ich nicht so viel zu tun, also vertrieb ich mir die Zeit mit Quizduell spielen und unterhielt mich mit ein paar Leuten, die gerade nicht mit programmieren beschäftigt waren. Der Nachteil an fehlenden Programmierkenntnissen ist, dass man nicht versteht, worüber die Programmierer sprechen. Es fühllt sich an, wie in einer fremden Welt zu sein. Nach dem Abendessen begannen die „Stand-ups“, das bedeutet, dass die Teams ihre Projekte kurz vorstellen, wo genau sie gerade mit der Entwicklung standen und wie sie weiter vorgehen wollten. Plötzlich tauchte Florian wieder auf. Ich erkannte ihn an seiner Stimme sofort. Er fand es schade, denn er hatte sich ein Schild mit dem Namen Tom umgehängt. Tatsächlich hätte er mir, sollte ich seine Stimme nicht erkennen, behauptet, er hieße Tom. Aber an meiner Stimm-Erkennungs-Fähigkeit kommt selten jemand vorbei 😉

Flo-Tom und ich setzten uns in eine gemütliche Sofaecke. Er fragte, ob er mein Smartphone ausprobieren dürfe und auch, ob ich Lust hätte, das Windowstablet zu testen.

Er würde dafür „mal eben schnell“ eine App bauen, mit der ich ein bisschen experimentieren könnte. Die Zeit, in der die App entstand, spielte ich weiter Quizduell. Er meinte, dass er das auch mal gespielt hätte. Also bat ich ihn, es sich herunterzuladen, damit wir gegeneinander antreten konnten. Nach dem er die App heruntergeladen hatte, spielte ich mit seinem Handy gegen irgendwelche wildfremden Personen. Da er auch ein Iphone hatte, konnte ich das mit Voiceover spielen. Als er dann die App auf dem Windowstablet fertig gebaut hatte, versuchte ich, etwas in das vorgesehene Textfeld zu schreiben. Leider schaffte ich es nicht mal, die Buchstaben anzutippen. Flo ging es ähnlich und so beschlossen wir, dieses Experiment für gescheitert zu erklären. Dafür war etwas anderes umso erfolgreicher. Flo schaffte es innerhalb einer guten Stunde, eine Nachricht an mich in sein Handy mit Voiceover zu tippen. Es war zugegebenermaßen ganz lustig, ihm dabei zuzusehen. Die Bedienung mit Voiceover und dem Iphone ist nämlich für einen Sehenden ganz anders.

 

Auch wir wurden zu einem der stand-ups dazu geholt.

Es wurden viele Projekte für Menschen mit Seheinschränkung konzipiert. An dem Stand-up an dem wir teilnahmen, waren wieder die Leute von der Website vom Vortag. Wir versuchten gemeinsam einen Namen für das Projekt zu überlegen. Das war gar nicht so einfach. Ich finde das nicht so gut, wenn Produkte immer gleich auf die Art der Behinderung hinweisen. Aber ich glaube, dass der Name, den sich das Team ausdachte, nicht viel oder nur ansatzweise etwas mit Behinderung zu tun hat.

 

Danach spielten Florian und ich noch ein wenig am Computer. „Die Sims 4“ um genau zu sein.

Bisher habe ich nur „Sims 2 und 3“ gespielt. Also noch eine Primiere an diesem Wochenende. Leider kann ich nicht selbst spielen, aber wenn mir jemand erklärt, was gerade passiert, funktioniert das gut.

Und so wurde es kurz vor drei Uhr. Flo bot an, mich ins Hotel zurückzufahren, was ich dankend annahm. Dort wollte ich mit der Zimmerkarte aufsperren, aber es ging nicht. Anscheinend, weil ich die Karte in der Nähe eines Magneten, meinem Handy oder an Geld hatte, sodass sie sich entlud. Flo ging an die Rezeption.

Das war mir sehr unangenehm, erstens für ihn, da er mich hergefahren hatte und jetzt auch noch eine neue Karte besorgen musste und für den Rezeptionisten, der mir zu so später Stunde noch half. Danke an beide!

Dann konnte ich in mein Zimmer und schlafen.

 

 

 

Neue Nähe Hackathon Teil 2: Freitag, 30.06.2017: Emotionale Abschiede und leise Achterbahnfahrten

Es war der letzte Tag meines Praktikums bei Microsoft. Ein sehr emotionaler Moment war für mich, als sich mein Manager von mir verabschiedete. Wahnsinn, wie schnell so ein halbes Jahr vergeht! Es war eine Zeit voller spannender Momente und tollen Begegnungen! Sich jetzt wieder auf etwas unbekanntes einzustellen, ist schon sehr ungewohnt.

Ich schrieb an meinem allerletzten Blogbeitrag für die weltweite Microsoft-community und hatte mal wieder völlig die Zeit vergessen. Marco kam zu uns ins Büro und wollte mich abholen. Ich räumte mir noch eine halbe Stunde ein, da ich noch nicht ganz mit dem Eintrag fertig war. Als er dann noch mal kam, veröffentlichte ich gerade den Blog, war also so gut wie bereit. Schweren Herzens verabschiedete ich mich noch von meiner Kollegin und verließ gemeinsam mit Marco das Office. Wir entwerteten meine Karte und machten uns anschließend auf den Weg zu seinem Auto. Dann ging die Fahrt los.

 

Da Marco eigentlich um 15:00 Uhr bei der Veranstaltung sein musste, um sie zu moderieren, war es zeitlich ein bisschen knapp. Ich machte mir ein wenig vorwürfe, schließlich waren wir wegen mir später losgefahren. Doch der Verkehr machte uns einen Strich durch die Rechnung. Und wir standen im Stau. Das Navi zeigte 15:45 als Ankunftszeit an, also würden wir zu spät kommen. Marco telefonierte mit Kollegen und es stellte sich heraus, dass die Speaker, die eigentlich für den Freitagabend geplant waren, im selben Stau standen wie wir, bloß noch weiter hinten. Es wurde also entschieden, die talks auf den Samstag zu legen. Wir kamen nicht rechtzeitig, aber sicher in Erlangen an, das war die Hauptsache!

 

Bevor wir zur Veranstaltung fuhren, holten wir noch etwas bei Marco zu Hause ab. Seine Frau und seine kleine Tochter begrüßten uns freudig. Marcos Frau gab mir ein Glas Wasser und wir unterhielten uns kurz in der Küche. das Mädchen war ganz aufgeregt, denn sie hatte noch nie zuvor einen blinden Menschen gesehen. Es freut mich, wenn Kinder damit „konfrontiert“ werden. Sie sind viel unbefangener als Erwachsene. Marco entschied, seine Tochter mitzunehmen. Wir fuhren also zu dritt zum Hackathon.

 

Als wir ankamen, hatte die Veranstaltung bereits begonnen, denn es war nicht mehr möglich gewesen, die Begrüßung zu verschieben. Gerade stand ein blinder Mann mit seinem Laptop auf der Bühne. Er zeigte, wie man ohne Maus navigiert und machte darauf aufmerksam, wie wichtig es ist, bei Websites auf Barrierefreiheit zu achten. Dies zeigte er an einem Formular, das nicht barrierefrei gestaltet war. An einem Video demonstrierte er dann, wie schwierig es für uns blinde Personen ist, mit technischen Geräten, die nur mit einem Touchscreen ausgestattet sind, umzugehen.

Das Beispiel war eine Kaffeemaschine und natürlich fiel mir da sofort die Bedienerunfreundlichkeit der Kaffeemaschine bei Microsoft im Office ein. Diese war nämlich auch nur mit Touch zu bedienen. Nicht, dass ich Kaffee trinke, aber auch die Möglichkeit, mir einen Tee zu kochen, blieb mir mit dieser Konstruktion verwehrt.

Der Vortrag gefiel mir sehr gut. Als er geendet hatte, wurde der Mann direkt neben mich auf den freien Platz gebracht. Ich begrüßte ihn, stellte mich vor und lobte ihn für seinen tollen Vortrag. Er stellte sich als Bahadddin vor.

Auch von meiner Erfahrung mit der Kaffeemaschine im Office erzählte ich ihm. Er verstand mich natürlich sehr gut. Aber nicht nur mich hatte sein Vortrag begeistert. Wir wurden von verschiedenen Personen daraufhin zu der Bedienung von Websites, aber am allerhäufigsten bezüglich der Kaffeemaschine befragt. Dann ging Marco auf die Bühne und erzählte kurz, in welchen Räumen wir uns während des Hackathon aufhalten durften. Daraufhin folgte ein Vortrag über ChatBots. Solche Bots können mithilfe von künstlicher Intelligenz mit dem Benutzer kommunizieren. In manchen Ländern werden sie verwendet, um Geld zu überweisen.

Nach dem Vortrag gab es Chili Con Carne mit Brot zum Abendessen.

Dabei ergaben sich sehr interessante Gespräche mit Studenten der Universität Erlangen. Danach stellte sich ein Projekt aus Düsseldorf mit dem Namen PICSL vor. Das Project unterstützt Menschen, die selten oder gar nicht mit technischen Geräten in Berührung kommen, bietet Kurse und Schulungen an und programmiert Anwendungen, um das Leben für diese Personengruppe technisch zu erleichtern.

Der Gründer von PICSL und drei Mitarbeiter hielten den Vortrag. Alle Mitarbeiter hatten selbst eine Behinderung.

 

Nach und nach formierten sich die Teilnehmer zu Gruppen und schmiedeten erste Pläne für die Umsetzung von Apps oder Websites. Ich fand es ein bisschen schade, dass ich nicht programmieren konnte, denn so hätte ich ein wenig unterstützen können. Aber es wartete schon etwas anderes spannendes auf mich! Florian Thurnwald, ein Werkstudent bei Microsoft begrüßte mich. Wir hatten ein paar Wochen zuvor bezüglich der HoloLens, einer Brille, die von Microsoft entwickelt wurde, miteinander zu tun. Er hatte mir damals angeboten, die Brille zu testen. Obwohl ich keine Sehkraft habe, war es mir möglich, mit der HoloLens Geräusche zu orten. Je näher ich einem Objekt kam, desto lauter wurde der Ton.

Ich freute mich sehr, Florian zu sehen. Er erzählte mir, welche Strapazen er mit dem E-Auto auf sich nehmen musste. Es ist nämlich gar nicht so einfach, wenn man nur noch wenige Kilometer mit dem Auto zurücklegen kann, weil der Strom knapp ist und die nächste Ladestation zu weit weg.

Florian fragte, ob ich mit zur nächsten Ladestation fahren möchte.

Ich war sehr begeistert, denn mit einem Elektroauto zu fahren, wünschte ich mir schon länger.

 

Zuerst hatte ich das Gefühl, in ein normales Auto einzusteigen, aber dann, als wir los fuhren, hörte ich den Motor gar nicht. Das Gefühl, als wir schneller wurden, war atemberaubend. Es fühlte sich an, wie in einer Achterbahn zu sitzen. Einfach nur toll! wir hörten Musik, genauergesagt Flos Lieblingsband, die ich noch nie zuvor gehört hatte.

Aber ich bin sehr offen, was Musik angeht.

Dann hielten wir an der Ladestation. Wir stiegen aus und er zeigte mir, wie man das Auto an den Strom anschloss.

Jetzt hieß es 20 bis 30 Minuten warten, denn so lange braucht das Auto, um aufgeladen zu werden. Aber das machte nichts, denn wir hatten Musik und Gespräche. Als das Auto wieder mit genügend Strom versorgt war, machten wir uns auf den Rückweg.

 

Als wir wieder beim Hackathon ankamen, wurden wir schon erwartet. Alexandra und Ulli, die beiden Mitarbeiterinnen der Aktion Mensch, wollten ins Hotel fahren. Wir suchten Bahaddin. Er war mit einigen anderen in einem der Coding-Räume , tüftelte und beriet. Er arbeitet selbst als Programmierer.

Das Team hatte ein sehr spannendes Projekt: Sie wollten eine Website erstellen, die eine Plattform für Menschen mit Behinderung schafft, damit man Probleme schildern kann und Hilfsmittel auflisten, die es bereits für die Problemlösung gibt. Es sollte ein Austausch zwischen Programmierern und Menschen mit Behinderung werden. Da es aber ziemlich schwierig wäre, die Website für alle Zielgruppen barrierefrei zu gestalten, kamen sie zu dem Schluss, es vorerst für Blinde auf zu bereiten. Die Website kann dann auch stetig erweitert und auf andere Zielgruppen angepasst werden.

 

Nach diesem aufregenden Tag fuhren wir mit dem Auto zum Hotel. Alexandra brachte mich zu meinem Zimmer. Nach dem sie mich noch mal anrief, um mir zu sagen, dass sie mich am nächsten Morgen um 9:00 Uhr zum Frühstück abholen würde, ging ich ins Bett. Da ich mir leider nichts zum Schreiben mitgenommen hatte, nahm ich mir ein paar Notizen auf mein Handy auf. Wäre ja schlimm, wenn ich etwas vergesse.

 

Neue Nähe Hackathon Teil 1: Ein Hackathon für Menschen mit und ohne Behinderung

Teil 1: Ein Hackathon für Menschen mit und ohne Behinderung

Von Freitag 30.06. bis Sonntag, 02.07.2017 fand in Erlangen der zweite „Neue Nähe Hackathon“ der Aktion Mensch und Microsoft statt. Durch den Aufruf der App CUBUS, die über Veranstaltungen und Berichte für blinde und Sehbehinderte informiert,

erfuhr ich von diesem Event.

Ein Hackathon ist ein Programierwettbewerb. Spaß und ausprobieren stehen bei solchen Veranstaltungen im Vordergrund.

Die drei Sieger des „Neue Nähe Hackathon“ werden mit einem Preisgeld ausgezeichnet und sollen, wenn möglich, die Produkte im Anschluss an die Veranstaltung weiter entwickeln.

Da ich bis zum 30.06.2017 Praktikantin bei Microsoft war, kontaktierte ich gleich Astrid Auperle, die als Ansprechpartnerin für interessierte angegeben wurde.

Sie ist für soziales Engagement bei Microsoft zuständig.

Nach kurzem Mail-Austausch leitete sie mich an Marco Richardson weiter, der an dem Hackathon teilnehmen würde. In einem kurzen Gespräch erzählte er mir dann vom ersten „Neue Nähe“ Hackathon, der im Dezember 2016 in Berlin stattfand. Bereits im März erfuhr ich durch meinen Manager des Teams, in dem ich während des Praktikums war, von diesem Event.

Ich sah mir Videos von den Ergebnissen des letzten Hackathon an.

 

Marco versprach mir, sich mit der Aktion Mensch in Verbindung zu setzen, um den Aufenthalt in Erlangen während der drei Tage für mich zu organisieren. Eine Woche nach diesem Gespräch trafen wir uns wieder, um alles organisatorische zu klären. Wir würden gemeinsam vom Microsoft Office München nach Erlangen fahren. Ein Hotelzimmer wurde auch organisiert. Die gesamten Kosten übernahm die Aktion Mensch.

Das Abenteuer konnte beginnen!

 

 

Workshop Audiodeskription Teil 4: Tag 3: Von unsichtbaren Fröschen und künstlichen Stimmen

Tag 3: Sonntag, 28.01.2018

Wieder um 09:30 Uhr trafen wir alle zusammen. Der Plan für heute war es, am Film „Tschick“ von gestern weiterzuarbeiten. Diesmal durften wir uns Szenen aussuchen. Entweder eine Szene, in der die Hauptfigur traurig ist oder eine andere, die etwas schwieriger zu beschreiben ist, da sie eine Sequenz enthält, die nur der Vorstellung der Hauptfigur entspricht. Unsere Gruppe entschied sich für die melancholische Szene, da es viele Sprechpausen gab und dadurch viel Zeit zum Beschreiben war. Einfach war es nicht. Wir hatten am Ende nicht so viel Beschreibungstext, da wir die melancholische Stimmung des Films rüberbringen wollten. Wir diskutierten kurz, ob wir die Zeit nutzen sollten, um die Hauptperson zu beschreiben, entschieden uns aber dagegen, da die Stimmung uns wichtiger erschien. Als wir dann alle zusammen die originale Audiodeskription anhörten, stellten wir fest, dass die Person kurz beschrieben wurde, also das, was wir nicht machen wollten. Herr Benecke war sehr zufrieden mit unserer aller Leistung.

Zum Abschluss gab er Tipps, welche Aussichten wir mit diesem Workshop hatten. Beim Bayerischen Rundfunk hätten wir keine Chance, uns zu bewerben, dafür aber beim NDR und WDR. Auch gibt es Firmen, wie TV Text international, Untertitelwerkstadt, Audioskript.

Da man mit drei Tagen Workshop noch nicht vollständig professionell arbeiten kann, empfiehlt es sich auch, bei einem bestehenden Team oder einzelnen Autoren zu hospitieren.

Dann zeigte er uns noch einige Filmbeispiele.

Unter anderem eine schon etwas ältere Waschmittelwerbung. Diese wurde mit AD ausgestattet, da eine blinde Frau mitspielte. Sie wurde dreisprachig entwickelt, was normalerweise bei AD unüblich ist: Deutsch, Französisch und Italienisch.

Ein wirklich schönes Beispiel finde ich die beiden Filme von Bibi Blocksberg. Der Schauspieler von Bernhard Blocksberg, Bibis Vater, übernahm den Sprecher der AD und kommentierte aus seiner Sicht das Geschehen. Das finde ich für Kinder wirklich toll, Audiodeskription erlebbar und lustig zu gestalten!

Es kommt auch vor, dass AD mit künstlicher Stimme hergestellt wird. Diese klingt wirklich schrecklich. Wie die künstliche Sprachausgabe meines Handys. Für einen richtigen Film nicht empfehlenswert! Allerdings fände ich das persönlich für YouTube-Videos klasse! Genauso wie man dort die Untertitel einstellen kann, so könnte man dann auch die AD einstellen. Also, wenn das hier jemand von YouTube liest, der melde sich bitte bei mir!

Im Herbst soll es ein Aufbauseminar geben. Allerdings muss man, um daran teilnehmen zu können, selbst schon in dem Bereich AD gearbeitet haben.

Ich könnte mir wirklich gut vorstellen, in diesem Bereich tätig zu sein. Nicht alleine, das weiß ich selbst, ist vollkommen unmöglich, aber es ist sehr wichtig, dass blinde Menschen in die Erstellung von Audiodeskription mit einbezogen werden. Sind doch wir diejenigen, die es am allermeisten brauchen!

Was mir sehr gefallen hat war, dass die Sehenden viel mehr für Geräusche sensibilisiert wurden. Zum Beispiel war es so, dass bei dem Film „Tschick“ in einer Szene Frösche zu hören waren, die mir sofort auffielen, meinen beiden Kolleginnen aber erst, nachdem ich das Froschquaken erwähnte. Eine der Beiden erzählte mir dann, dass die Frösche im weiteren Verlauf des Films noch eine Rolle spielen werden, weshalb es wichtig ist, das Hintergrundgeräusch, in dem Fall das Quaken, nicht zu übersprechen.

Ich bin sehr froh, an diesem Workshop teilgenommen zu haben. Dank gilt auch den Organisatoren, dem Referenten, Herrn Benecke, und vor Allem den Teilnehmer/innen, die sich für das Thema interessieren.

Workshop Audiodeskription Teil 3: Tag 2: Von Doktorarbeiten, Methoden und berühmten Jugendfilmen

Tag 2: Samstag, 27.01.2018

Tag zwei startete etwas früher, nämlich um 09:30 Uhr. Diesmal begann der Tag damit, dass Herr Dr. Benecke über seine Doktorarbeit „Audiodeskription – partielle Transkription“ sprach. Er erklärte uns zwei Dinge aus seiner Doktorarbeit: Was ein Holon und eine Aspektmatrix ist.

Ein Holon ist die inhaltliche Zusammenfassung des Films (kurze Stichpunkte, die beschreiben, was der Film für den Zuschauer, der die AD erstellt, aussagt).

Eine Aspektmatrix ist die Einteilung des Films.

Dabei werden folgende Dinge berücksichtigt:

Hat die Musik einen großen wichtigen Anteil am Bild? Man kann sich das so wie bei „Peter und der Wolf“ vorstellen. Da hat jede Figur ihre eigene Erkennungsmelodie.

Er erklärte uns, dass es auch Musik gibt, die nicht zum Bild passt.

Sind Geräusche auffällig, muss man diese erklären – oder sind sie selbsterklärend?

Dabei ist wichtig, dass der Ton (wichtige Geräusche, Dialoge) unangetastet bleibt, also keine Audiodeskription verwendet wird. Ausnahmen gibt es beim Übersprechen von Dialogen, wenn diese nicht unbedingt relevant für den Film sind. Das aber wirklich nur im Notfall und auf keinen Fall bei Kinoproduktionen!

Wann treten Personen zum ersten Mal auf, wann werden die Namen im Film erwähnt? Das ist sehr unterschiedlich. In einigen Audiodeskriptionen werden Personen gleich am Anfang erwähnt, obwohl sie noch nicht im Film genannt worden sind. Meist bei Serien ist das der Fall, da man die Personen schon kennt.

Wir probierten das an dem Jugendfilm „Tschick“, nach dem Roman von Wolfgang Herrendorf. Das Buch habe ich gerade angefangen zu lesen.

Diesmal wurde ich in eine neue Gruppe eingeteilt. Wir sollten zuerst eine Aspektmatrix und ein Holon erstellen. Das dauerte und wir brauchten auch sehr viel Zeit dafür. Danach gab es Mittagessen. Anschließend erstellten wir die Audiodeskription. Wir kamen, wie schon am Vortag, nicht so weit, zwei, drei Minuten, aber immerhin! Die anderen waren ebenfalls unterschiedlich weit gekommen. Eine Gruppe sogar ungefähr zehn Minuten. Man muss aber dazu sagen, dass sie über die kurze Kaffeepause hindurch geschrieben hatten. Wieder bewerteten wir uns gegenseitig und wie am Vortag hätte man alles zusammenlegen können, um eine perfekte AD zu erhalten. Dann war auch dieser Tag zu Ende.

Workshop Audiodeskription Teil 2: Tag 1: Rund um die Geschichte der AD und zwei urige Polizisten

Tag 1: Freitag, 26.01.2018

Um 10:00 Uhr ging es los. Zuerst bekamen wir eine Einführung von Prof. Dr. Maier, dem Leiter der Hochschule.

An diesem Tag fand auch die 65-Jahr-Feier des SdI statt.

Anschließend gab es eine Vorstellungsrunde.

Die Teilnehmer kamen aus ganz unterschiedlichen Branchen, wie Übersetzer, Untertitler und vom Film.

Die meisten stammten nicht aus München, sondern waren über ganz Deutschland und sogar Österreich verteilt.

Ich finde es schön, dass so viele wegen des Workshops von so weit herkommen.

Es waren insgesamt 13 Teilnehmer, mich eingeschlossen.

 

Dann begann Herr Benecke, die Geschichte der Audiodeskription zu erzählen.

Die Audiodeskription wurde in den 70er Jahren in den USA entwickelt.

1989 kam sie dann auch nach Deutschland.

Andere europäische Länder schlossen sich an. Es gab nie eine einheitliche Audiodeskription, jedoch seit rund 15 Jahren einen Austausch der Länder.

Durch einen Vorleseservice für Blinde entstand die AD am Theater.

1993 wurde die erste Serie mit Audiodeskription im ZDF ausgestrahlt.

2013 wurden die Rundfunkgebühren auch für Behinderte fällig. Die öffentlich-rechtlichen Sender entschieden im Gegenzug, vor allem die Vorabendserien mit Audiodeskription und Untertiteln (für Hörgeschädigte) zu versehen.

Wenn Filme eine Filmförderung erhalten, müssen sie ebenfalls mit einer Audiodeskription versehen werden. Leider ist es nicht immer so einfach, die Zielgruppe zu erreichen, weshalb viele Audiodeskriptionen zwar hergestellt, aber nicht ausgestrahlt werden. Meistens ist aber das Geld ein Problem. Für eine Audiodeskription müssen rund 5.000 € eingeplant werden.

 

Weltweit gibt es Filme mit Audiodeskription.

Wir schauten uns Englische und Französische ADs an.

So unterschiedlich, wie die Länder sind, so unterschiedlich ist auch der Beschreibungsstil der AD.

Die Franzosen sind sehr blumig und interpretierend.

Für mich sind englische Audiodeskriptionen sehr lebendig. Die Sprecher fiebern fast schon das Geschehen mit!

Auf Englisch gibt es fast keinen Film ohne Audiodeskription. Sogar Netflix bietet Serien mit AD auf Englisch an.

Im Gegensatz zu Deutschland gibt es in den USA keine App fürs Kino, dafür kann man sich aber im Kino Filme mit AD über Kopfhörer ansehen.

Auch bei uns wird diese Form angeboten, ist jedoch selten. Hier in Deutschland gibt es die App Greta, mit deren Hilfe es möglich ist, Filmbeschreibungen herunterzuladen und diese dann mit dem Film im Kino zu synchronisieren. Viele Filme werden durch die App angeboten. Auch auf DVDs ist die AD vorhanden. Es gibt aber einen Unterschied zwischen Kino und DVD-Version bei Greta. Die Bildanzahl pro Sekunde ist beim Kino höher, bei DVDs muss das Ganze noch zusammengemischt werden. Wenn man sich einen Film im Fernsehen anschauen will, bei dem die AD nicht direkt im Fernsehen verfügbar ist und man diese über GRETA schauen möchte, muss man darauf achten, die DVD Fassung in der App auszuwählen. Mir ist das nämlich schon passiert, dass ich den Film abgespielt habe, die AD aber viel langsamer war, als der Film.

 

Ein neues Feld ist auch die Live-Audiodeskription. Beispiele dafür sind Theater oder Musicals. Manchmal gibt es sogar die Möglichkeit, die Bühne, Kostüme und Requisiten vor der Vorstellung anzufassen. Das nennt man dann Audiointro. Dazu sahen wir uns ein Beispiel vom Theaterstück Pinochio an.

Ein Bereich, der noch nicht so sehr mit AD abgedeckt ist: Museen.

 

Dann begann der praktische Teil.

Wir erhielten die Aufgabe, einen Raum, den wir kennen, zu beschreiben.

Danach musste jemand anhand der von einer anderen Person diktierten Beschreibung den Raum abzeichnen. Dies war gar nicht so einfach, weil die beschreibende Person immer wieder auf die Zeichnung der anderen Person schaute. Ziel war es jedoch, sich nur auf den eigenen Teil der Aufgabe zu konzentrieren.

Anschließend gab es eine zweite Aufgabe: Ein Gemälde beschreiben.

Für den Anfang gelang das sehr gut.

 

Uns wurde erklärt, wie man eine AD schreibt. Sie wird im Präsens geschrieben, Interpretationen sollten vermieden werden.

Die wichtigsten Fragen, die man sich immer stellen sollte, sind:

Wo sind wir?

Wer handelt?

Was passiert?

Auch ist es wichtig, Farben, Gestik, Mimik und Geräusche zu erklären, die nicht eindeutig zuzuordnen sind.

Eine Hilfe ist der Timecode und ein Keyword.

Der Timecode ist die im Bild mitlaufende Uhr. Beim Film sind es sechs Stellen. Beispiel:

0:01:35

Also 0 h, 1 min., 35 Sek.

Das Keyword bestimmt, ab wann man lossprechen kann. Das Keyword kann entweder ein Wort, ein Satz oder ein Geräusch sein.

Dann durften wir an richtigem Filmmaterial arbeiten.

Es war eine Folge von „Hubert und Staller“, eine bayerische Krimiserie. Alle wurden in Teams, bestehend aus zwei oder drei Mitgliedern, eingeteilt. In jedem Team sollte ein Blinder dabei sein. Da ich die einzige „echte“ Blinde im Workshop war, sollte ich in verschiedenen Teams mitarbeiten. Jedes Team zog sich in einen dafür vorgesehenen Raum zurück. Wir schauten uns zuerst die ersten Minuten an. Gleichzeitig beschrieben mir meine beiden Teamkolleginnen die Bilder. Dann schauten wir die Szene noch einmal und stoppten, wann immer es etwas zu beschreiben gab. Wir schrieben uns den Timecode und das Keyword auf und dann versuchten wir, geeignete Formulierungen zu finden. Manchmal mussten wir aufpassen, bei Kleinigkeiten, die für den Film möglicherweise unrelevant waren, nicht zu sehr ins Detail zu gehen.

Gefühlt konnten wir die Dialoge der Szene schon mitsprechen, da es immer widerholt werden musste. Aber das ist natürlich logisch, wenn man noch nicht so drin ist, braucht man länger.

So waren wir mächtig stolz, dass wir in zwei Stunden Arbeitszeit zwei Minuten des Films beschrieben hatten. Die Auswertung fand dann wieder mit allen zusammen statt. Wir diskutierten über jede einzelne Fassung und ich bin mir sicher, wenn wir von jeder Fassung einzelne Teile genommen hätten, wäre es die perfekte Audiodeskription geworden. Außerdem schauten wir uns die „Musterlösung“ an, also die originale AD. Dabei fielen uns auch Dinge auf, die nicht hundertprozentig gelungen waren. Es gibt kein perfekt oder unperfekt. Das wichtige ist: Say what you see! Du sagst, was du siehst, nicht das, was du glaubst zu sehen!

Anschließend gingen wir noch in ein schönes Restaurant, gegenüber dem Hofbräuhaus, essen.