Link

Wer selbst eine Behinderung hat oder ein Kind, dass behindert ist, fragt sich sicher of, warum dieses Schicksal. Ist das nicht ungerecht? Ich denke, dass es oft notwendig ist, dass bestimmte Leute eine Behinderung haben, um den Lauf der dinge zu beeinflussen. Louis Braille musste sich verletzen, damit später alle blinden Menschen eine gute und effiziente Schrift nutzen konnten und können.

Außerdem ist es immer gut, für seine Ziele zu kämpfen und so selbständig wie möglich zu sein.

Der folgende Link unterstreicht dies sehr beeindruckend:
http://www.anderssehen.at/portrait/lbraille.shtml

Woher kommen eigentlich die Ellen langen Seiten?

Wenn man in seinem Browser mit einem Screenreader gefühlt unendlich oft nach unten wandern kann, wenn die Liste an Links, Schaltern, Registerkarten und Tabellen im mittleren zweistelligen Bereich ist, dann befindet man sich in einer Webanwendung. Machen sich die Entwickler die Mühe so lange Seiten zu erstellen? Können sie nicht einfach kurze und übersichtliche Dialoge entwerfen?

Nein, denn die Seiten werden i.d.R. aus einer Reihe von Bausteinen generiert. Natürlich entscheiden die Entwickler darüber, welche Komponenten an welcher Stelle ihrer Anwendung angezeigt werden, aber sie sind dabei immer mehr vom HTML-Text entfernt, der beim Anwender im Browser angezeigt wird. Aus wenigen Skriptaufrufen oder deklarierten Komponenten werden dadurch im nu lange und komplexe HTML-Dokumente, die vom Browser einerseits und vom Screenreader andererseits interpretiert werden müssen.

Während bei der Verwendung von PHP der Entwickler den generierten HTML-Code noch relativ gut beeinflussen kann und ungefähr weiß, wie der Code an Ende aussieht, ist dies bei Frameworks wie JSF anders. Der Entwickler deklariert in XML- und XHTML-Dokumenten den Seitenaufbau, deren Verknüpfung und bettet Aktionen etc. ein. Die Objekte mit denen er hantiert sind direkt an die Anwendungslogik gekoppelt, die in Java erstellt wird. Was am Ende tatsächlich im HTML-Code steht, entscheidet die JSF-Implementierung (JSF ist nämlich nur eine Spezifikation). Die Seiten werden also eher komponiert und durch abstrakte Regeln wird ihre Verknüpfung festgelegt.

== Beratung bei der Gestaltung von Barrierefreien Seiten ==
Bislang haben sich die Spezialisten den HTML-code der Seiten angesehen und darauf basierend gezielt Hinweise gegeben, wie die Barrieren entfernt werden können. Das können sie zwar auch bei Webanwendungen tun, aber die verantwortlichen Entwickler haben kaum Kenntnis über den HTML-code, den sie generieren. Sie können ihn auch nur im Rahmen der Möglichkeiten von JSF und den Implementierungen beeinflussen. Damit sind sie in der gleichen Situation, wie die Entwickler von Desktop-Anwendungen. Damit solche Webanwendungen möglichst zugänglich bzw. barrierefrei sind, müssen zunächst die JSF-Implementierungen wie
[[^http://primefaces.org|Prime Faces]] korrekten Code im Sinne der WCAG erstellen.

JSF-Anwendungen kommen vor allem bei beruflichen Anwendungen zum tragen, weil sie eine komplexe Infrastruktur benötigen und auf verteilte und komplexe Logik ausgerichtet sind. Weil sich in diesem Kontext meistens keine Alternativen Anwendungen verwenden lassen (Ein Unternehmen installiert solche Anwendungen aus handfesten Gründen), wiegen Barrieren hier schwerer als bei Anwendungen im privaten Umfeld.

Wie bei Desktopanwendungen auch, ist die Zugänglichkeit durch das zugrundeliegende Framework eine Grundvoraussetzung, aber alleine nicht ausreichend. Nur der Entwickler weiß, welche Bereiche der Anwendungen mit welchen ARIA-Rollen ausgestattet werden müssen – welche Semantik die Informationen in einem bestimmten Bereich haben. Erst mit der neuesten JSF-Spezifikation ist es möglich geworden, solche Informationen über die Komponenten in den generierten HTML-Code einzuwerfen. Dies muss nun von den Implementierungen unterstützt und umgesetzt werden.
Der folgende Link beschreibt die Situation der Webanwendungen und die technischen Abhängigkeiten recht gut und nachvollzieh bar.
[[http://blog.akquinet.de/2013/07/26/the-state-of-web-accessibility-in-the-javaee-world/]]

Der folgende Link verweist auf ein Buch zu JSF und macht die Mächtigkeit und Tragweite von JSF für Webanwendungen deutlich.
[[http://jsfatwork.irian.at/book_de/jsf.html]]

== Barrieren liegen auf der Lauer ==
Nun könnte man meinen, dass sich erst bei komplexen Tabellen und überfrachteten Seiten ernsthafte Probleme einstellen. Die Hindernisse finden sich aber schon in viel banaleren Situationen. Z.B. dann, wenn man einen Baum (z.B. ein Inhaltsverzeichnis oder eine Ordnerstruktur) darstellen möchte. Wenn man Glück hat, dann wird die Struktur aus wild in einander geschachtelten Listen zusammengesetzt. Das ist zwar nicht übersichtlich, aber wenigstens kann man den Inhalt lesen. Weil parallele Knoten in einzelnen Listen dargestellt werden, können hier Teile der Navigationstasten des Screenreaders nicht mehr helfen. Wenn man pech hat, und das erwähnte Prime Faces zum einsatz kommt, dann erkennt der Screenreader, dass eine Baumstruktur vorhanden ist, kann sie aber überhaupt nicht auslesen. Das wäre dann i.d.R. ein Knockout-Kriterium für die Zugänglichkeit einer Anwendung, weil sich in solchen Bäumen oft zentrale Informationen wiederfinden.

Wie bin ich eigentlich hierher geraten

Gerade hatte ich mich in die Entwicklung komplexer Dreischicht-Applikationen mit Java eingearbeitet. Feststeht: Es gibt zwar wie immer hier und da Probleme mit der Zugänglichkeit, aber im Großen und Ganzen funktionierte es erstaunlich gut. Ich bin sicher nicht der einzige blinde Entwickler auf diesem Gebiet, aber viele sind es wohl nicht – ich selbst kenne bislang nur sehr wenige die professionell mit Java entwickeln.

Nach wie vor gibt es in der IT quasi kaum Nachwuchs unter den Blinden und Sehbehinderten. Das hat mich lange verwirrt und es schien, als hätte ich als einziger ein großes und für alle sichtbares Schild übersehen, auf dem die richtige Straße angezeigt wurde. Ich bin vielleicht nicht auf den Kopf gefallen, aber ich denke nicht, dass ich mich so stark von meinen Schul- und Internatskameraden unterscheide, um das zu erklären. OK, IT ist tatsächlich nicht jedermanns Ding, aber die Berufsfelder, die für uns in Frage kommen, waren noch immer an zwei Händen abzuzählen und es war eher die Frage, welche Optionen es überhaupt gibt. Ist die IT vielleicht gar nicht erst als mögliche Option bekannt? Sind die Voraussetzungen wirklich so schwer zu erreichen? Kann man sich ob der wenigen Berufe und der harten Konkurrenz überhaupt den Luxus leisten eine Möglichkeit nicht zu versuchen?

Ich verurteile hier niemanden und will mich vor allem erst recht nicht über andere erheben.

Was also hat mich auf diesen anderen Weg gebracht? Beginnen wir systematisch und an Anfang
===Starthilfe===
Ich hatte das große Glück, dass meine Eltern selbst blind bzw. sehbehindert sind. Außenstehende finden, dies sei doppeltes Unglück. Aber für mich als Kind war es, als wenn man ein Computerspiel mit einem erfahrenen Kumpel durchspielt, der über die Hindernisse weiß und gute Ratschläge gibt.

Um mich nicht bereits mit sechs Jahren auf ein Internat geben zu müssen, rangen sie den Behörden die Erlaubnis ab, mich am Wohnort integrativ beschulen zu lassen. Die Grundschule stimmte zu und meine Eltern kümmerten sich in Eigenregie um die blindenspezifischen Hilfsmittel und Techniken wie Blindenschrift. Sie haben mir nie vorgehalten, was sie alles für diesen Schulbesuch unternahmen, aber es wurde auch nicht versteckt. Z.B. mussten alle Texte, die evtl. in der Schule verwendet werden würden manuell in Blindenschrift abgetippt werden. Das hat viele Vormittage gekostet und wenn ich schulfrei hatte, konnte ich das ganze direkt erleben. Man könnte sagen, dass ich in gewissem Sinne auf dieses Niveau kalibriert wurde. Durch die Unterstützung durch die Lehrer und die offenen Mitschüler ist die Integration gut gelungen. Mir hat es ein soziales Umfeld am Wohnort gegeben und ich bin im Bewusstsein aufgewachsen anders zu sein als die anderen. Letzteres ist nach meiner Meinung wesentlich für eine erfolgreiche Inklusion; Wer eine Einschränkung hat, muss sich anderen erklären können, damit Spekulationen über Möglichkeiten und Unmöglichkeiten gar nicht erst entstehen. Es gibt Leute, die der Meinung sind, Kinder sollten nicht so stark spüren, dass sie anders seien. Das ist realitätsfern und Schönfärberei – denn meistens merkt man sehr früh, wo man nicht mit anderen konkurrieren kann und was nicht geht. Es ist vernünftiger die Fakten auf den Tisch zu legen und den Kindern ein realistisches Selbstbild zu geben.

Das heißt natürlich nicht, dass alles in meiner frühen Kindheit rosa-Rot war. Im Gegenteil: Ausschlüsse und Hänseleien habe ich quasi von Beginn an erlebt und musste mit ihnen umgehen. Viele Aufgaben in der Schule waren mühsamer als für andere. Z.B. habe ich später Diktate direkt in eine normale Schreimaschine schreiben müssen, ohne es mir noch einmal ansehen zu können.

===Internat und Schule in Hamburg===
1986 war noch kein erschwingliches System zur Übertragung von Normal- in Blindenschrift verfügbar. Dadurch war eine Beschulung am Wohnort ohne noch viel größeren Aufwand nicht mehr zu leisten. Ich war ein wenig zu früh dran – heutzutage sind die technischen Möglichkeiten völlig anders. Also ging ich auf das Internat und wurde dort integrativ in der Heinrich-Herz-Schule unterrichtet. Der Unterricht selbst war ähnlich wie zu Hause – alleine in einer Klasse aus sehenden Schülern. Allerdings gab es dort Lehrer, die die Klassenarbeiten von Blinden- in Normalschrift übersetzten und sich um das notwendige Unterrichtsmaterial kümmerten. In der Grundschule hatten meine Lehrer selbst Blindenschrift gelernt, um meine Arbeiten etc. kontrollieren zu können. Am Ende habe ich neun Jahre meiner Schulzeit integrativ verbracht. Dass ich anschließend noch fünf Jahre in einer Blindenschule verbrachte hing nur damit zusammen, dass es keine integrative Realschule und Höhere Handelsschule gab und man der Meinung war, mir würden gewisse blindentechnische Grundlagen fehlen. Genau, ich flog mit mangelhaften Sprachkenntnissen vom Gymnasium! Der Bildungsunterschied zwischen dem integrativen Gymnasium und der Blindenrealschule war eklatant. Dadurch konnte ich mich in Ruhe reorganisieren und fand den Spaß am Lernen wieder.

Außerdem hatte die Integration auch einige Nachteile für mich. Viele Texte waren nur auf Band statt in Blindenschrift, Diktate mussten blind in eine ausgemusterte Büromaschine getippt werden und nicht zu Letzt kümmern sich Erzieher in einem Internat nicht so intensiv um einen wie es die eigenen Eltern tun. Ich persönlich würde daher retrospektiv sagen, dass die Pädagogen in meinem Umfeld ihren Anteil an meinem Schulwechsel hatten.

Der frappierende Unterschied im Unterrichtsniveau ist sicher einer der Gründe, warum vielen Mitschülern später der Einstieg ins Berufsleben schwer gefallen ist.

===Ein prägendes Erlebnis===
Irgendwann kurz vor meiner Teenagerzeit bekam ich gemeinsam mit meinem Bruder einen Homecomputer (C16) zu Weihnachten. Natürlich gab es hier keinerlei Sprachausgaben und ich konnte keinerlei Schrift erkennen. Unsere Eltern haben darüber wohl nicht viel nachgedacht, sonst hätten sie vielleicht vermutet, dass ich damit gar nichts anfangen konnte. Würde mich heute jemand fragen, ob es eine gute Idee sei, seinem blinden Kind einen Computer ohne jede Zugänglichkeit zu schenken, würde ich ihn wohl bitten, sich des Zynismus bewusst zu werden.

Dummerweise war mein Interesse für das Ding größer als bei meinem Bruder, sodass ich mich irgendwie damit beschäftigte – denn ich habe wohl stets in Möglichkeiten und nicht in Unmöglichkeiten gedacht. Irgendwie habe ich mir eine Grundlage in Basic zugelegt und meine Programme durch Einbetten von Tönen überprüft. In einem früheren Artikel habe ich das bereits erwähnt. Das hat mich in gewissem Sinne angefixt und da die Berufsmöglichkeiten für blinde Menschen eh begrenzt sind, sollte sich später daraus eine Art logische Konsequenz ergeben. Die Programme, die ich erstellt hatte waren natürlich winzig, aber im Kern hatte ich mir eine Lösung erarbeitet, dabei viel Spaß gehabt und Schlussendlich spielend eine hohe Barriere übersprungen.

===Ein wirklich guter Rat und warm up===
Als ich 1992 zur Erprobung für die Programmiererausbildung in Heidelberg war, riet mir einer der dortigen Azubis, mir vor der Ausbildung einen eigenen Computer inkl. Braillezeile anzuschaffen, um dort unabhängig von der anderen Technik arbeiten zu können. Damals haben sie dort noch Großrechner und Terminals verwendet. So kam es, dass ich 1993 meinen ersten “richtigen” Computer inkl. Braillezeile privat finanzierte. Das System sollte später noch ein zentraler Baustein in meiner Ausrüstung und Unabhängigkeit sein.
Ich konnte die nächsten Jahre nutzen, um mich in Ruhe und ohne Zeitdruck mit der Technik vertraut zu machen und meine ersten Gehversuche in der Pascal-Programmierung zu wagen. Neben den Vorteilen für den EDV-Unterricht in der Schule lief ich mich (freilich ohne es zu wissen) für die nächsten aufgaben warm. Für mich war es nichts anderes, als ein Hobby auszuüben.
===Die Feuertaufe===
Leider wurde die Ausbildung, die ich nach wie vor anstrebte, für ein Jahr in Heidelberg wegen Umstrukturierungen ausgesetzt. Ich hätte also nach der höheren Handelsschule ein Jahr Leerlauf gehabt. Deshalb suchte ich nach einem Praktikumsplatz, um zusammen mit dem Schulabschluss dadurch die Fachhochschulreife zu erwerben. Das war ziemlich schwierig und ich habe viele Absagen erhalten. Zum Glück arbeitete einer meiner Judokameraden in einer kleinen Werbeagentur und hat meine Bewerbung dort vorgelegt. Ich erhielt eine Chance – und was für eine.
Der Betrieb verwendete ein Windows-NT-Netzwerk und im Steinzeitalter der Windows-Screenreader gab es nur eine verfügbare Software namens Protalk. Um auszuloten, welche Aufgaben ich übernehmen könnte, haben wir einen Tag lang die im Unternehmen verwendete Software mit Protalk getestet. Mit dabei war Torsten Brand, der damals Protalk in Deutschland vertrieben hat und seinerzeit den Symbian Handys das Sprechen lehrte. Die Katastrophe hätte nicht größer ausfallen können – sämtliche irgendwie für das Unternehmen relevanten Anwendungen bestanden den Test nicht! Nur eine einzige Anwendung hielt stand – Microsofts Visualstudio 4.2! Wieso die Agentur eine VS-Lizenz hatte, was ich nicht. Da beim Test auch die Dosbox durchgefallen war, gab es technisch nur eine einzige Möglichkeit, mich sinnvoll zu beschäftigen: Programmieren von Windowsprogrammen mit C++.
Für das Praktikum habe ich meine private Braillezeile verwendet und habe somit den Kampf um Hilfsmittel für ein Praktikum umgangen – abgesehen von protalk natürlich. Wieder war ich wohl etwas zu früh dran, denn JAWS war für Windows-NT noch nicht verfügbar und die protalk-Installation war so instabil, das alle zwei Wochen der Rechner vollständig neu installiert werden musste. Erst mit besserer Hardware und mehr Speicher lief das System etwas stabiler.
Ohne jede Kenntnis von C oder C++, von Objektorientierung oder Windowsprogrammierung arbeitete ich mich ein und erhielt den Auftrag Daten aus einer Datenbank abzurufen und grafisch darzustellen.
Es hat fast das ganze Jahr gedauert, und ich habe wohl alle Fehler gemacht, die möglich waren, aber am Ende war die Anwendung umgesetzt und lief. Viel passender hätte ein Praktikum mich kaum auf den nächsten Schritt vorbereiten können.

==Schon auf anderer Straße als die anderen?==
Viele, viele Jahre später wurde mir bewusst, dass ich zu diesem Zeitpunkt wohl längst auf einer anderen Spur fuhr als meine Kameraden. Auf der einen Seite war alles gleich (Schulabschluss, ähnliche Noten und Pläne). Auf der anderen Seite hatte ich durch die integrative Schulzeit eine Reihe von Wissen und Fähigkeiten erworben, die für meinen weiteren Weg von essenzieller Bedeutung sein sollten. Fähigkeiten, die durch jahrelange Erfahrung, Charakter und andere Umstände ausgebildet wurden und die man wohl kaum ohne diesen harten Weg erwerben kann. Kurz: Ich sollte die Früchte meiner Entbehrungen ernten. Selbst die Internatszeit war für mich ein glücklicher Umstand. Denn während viele inklusiv beschulte Kinder nach der Schule oft wenig sozialkontakte haben, wurden diese im Wohnheim quasi mitgeliefert. Damit konnte ich das Beste aus beiden “Welten” nutzen.

Ich denke also nun, dass es das große Schild nie gegeben hat. Stattdessen waren ab dem Ende der Schulzeit Spurwechsel quasi nicht mehr möglich. Diese Erkenntnis sollte mir später als Mahnung im Kopf bleiben.

===Zurück zu den Wurzeln===
Ungefähr nach der Hälfte des Praktikums habe ich Kontakt zur Ausbildungseinrichtung aufgenommen – das Praktikum sollte ja nur eine Warteschleife sein. Nachdem ich kurz über meine Aktivität im Praktikum berichtet hatte, meinte der Ausbildungsleiter, dass ich bei Ihnen leider falsch wäre. mehr als ein Crashkurs in ein paar Wochen könnten Sie mir nicht anbieten – Visualstudio war als letzter Baustein in der Ausbildung vorgesehen. Und was jetzt? Einzige Möglichkeit: Studieren!
Zunächst versuchte ich, mich in Dresden zu bewerben, weil dort ein Studienzentrum für Sehbehinderte und Blinde Menschen vorhanden war. Weil mir aber das Abitur fehlte, hätte ich an der FH studieren und von der Uni betreut werden müssen. Alles ziemlich kompliziert, und nach dem mein Privater Antrieb nach Dresden zu gehen entfallen war, stellte sich die Frage, wohin? Vom Zentrum in Gießen wusste ich nichts und so fragte ich bei der lokalen FH in Emden an. Dort war man generell offen für einen blinden IT-Studenten und bereit es zu wagen. Also wieder die Integration in Eigenregie in Ostfriesland!

Durch das Praktikum und der früheren Integration war ich quasi auf Betriebstemperatur. Mit 21 Jahren hatte ich die notwendige Energie und meine Hilfsmittel beherrschte ich in allen Funktionen. Ich hatte viel Erfahrung und keine Scheu in einem Umfeld, in den ich ein Exot war. Damit waren alle Voraussetzungen gegeben, mich um meine eigene Integration im Studium zu kümmern – Alternativen gab es ja ohnehin nicht.

Meine Bewaffnung bestand neben dem bereits erwähnten Laptop, das mit Braillezeile über sieben Kilo wog, aus einem Braille’n Speak 2000 und einem Sharp MD-Player mit zusätzlichem Krawattenmikrofon. Alles war darauf ausgerichtet, möglichst mobil und portabel zu sein. Das Mikrofon ließ es zu irgendwo im Hörsaal zu sitzen und nicht an bestimmte Plätze gebunden zu sein. Mobilität und lange Netzunabhängigkeit waren für mich die Kernvoraussetzungen, die ich an meine Hilfsmittel gestellt habe. Ich wollte nicht an bestimmte Plätze gebunden sein und dadurch den Kontakt zu denen verlieren, mit denen ich vor einer Vorlesung gesprochen hatte. Das bedeutete auch, dass ich keine speziellen Bedürfnisse hatte, in welchen Räumen Veranstaltungen für mich stattfinden konnten.

Vor Studienbeginn hatte ich einen einwöchigen Crashkurs im Mobilitätstraining für die Gegebenheiten in der FH – damit ich also zur Mensa etc. finden konnte. Auch dies war unerlässlich um alleine und eigenständig die wichtigsten Wege bewältigen zu können. Die FH war zum Glück recht klein, sodass sich alles relativ schnell einprägte.

Damit ich gar nicht erst eine Sonderstellung hatte und “der Blinde mit der Begleitung” wurde, besuchte ich die Einführungsveranstaltung bewusst alleine. Bei der anschließenden Rally hat mich dann jemand der Kommilitonen mitgenommen. Schon am nächsten Tag sollte ich die ‘Gelegenheit erhalten, meinen Mut und Willen unter Beweis zu stellen. Die Erste Vorlesung: Mathe! Nach kurzer Einführung begann Prof. Engelmann schweigend an die Tafel zu schreiben. Mist! Natürlich konnte er nicht wissen, dass er mich damit abhängte. Also bin ich direkt nach der Vorlesung zu ihm gegangen und habe das Problem erläutert. Gleichzeitig schaltete ich quasi in den abgesicherten Modus und nahm alle Mathevorlesungen mit dem MD-Player auf. Zum Lernen wären die Aufnahmen ungeeignet gewesen. Deshalb musste ich sie zuhause in für mich lesbare Blindenschrift (Mathe ist bei dem begrenzten Zeichensatz schnell kryptisch) abschreiben. Das hat noch einmal die doppelte Zeit gekostet, sodass aus 10 Stunden Mathe 30 im ersten Semester wurden. Dazu kamen natürlich noch die anderen Vorlesungen und Übungen.

Über das gesamte Studium verteilt gab es eine Reihe von Hürden, bei denen ich mit den Dozenten Lösungen finden musste. Natürlich musste vor allem ich die Lösungsidee entwickeln, denn die Probleme und möglichen Alternativen waren ihnen nicht bekannt. Das war mir von Beginn an bewusst und ich habe deshalb versucht möglichst frühzeitig die Hindernisse zu beseitigen.

Ein alltägliches Problem bestand im Einlesen von Aufgaben und Übungen. Alles, was Formeln enthält, lässt sich nicht mit OCR erfassen und so war ich auf meine Kommilitonen angewiesen. Für sie war es keine Mühe etwas vorzulesen, aber dafür musste ich eine Art Gegenleistung bringen. Im Großen und Ganzen ist mir das mit Einsatz in allen Bereichen in denen ich helfen konnte gelungen – es geht bei solchen Gegenleistungen ja nicht um die Quantität, sondern den Willen das mögliche zu tun.

Aber auch die Professoren haben viel dazu beigetragen, indem sie sich bemühten Lösungen zu finden und Mathematikunterlagen als Latex-Skripte bereitstellten. Es gab natürlich auch Widerstände, aber diese wurden von Jahr zu Jahr geringer. Einmal wollte ein Laboringenieur nicht gelten lassen, dass ich mich rein mental an einer Programmierarbeit in Prolog beteiligte. Das hatte technische Gründe, denn es war ein System unter X11 unter Linux zu verwenden, das nicht zugänglich war. Nachdem ich gezeigt hatte, das ich die 1000 Zeilen Prolog-code sehr gut im Kopf hatte und sehr wohl wusste, was wo zu programmieren war, hatte sich das Problem erledigt.
Als Abschluss absolvierte ich mein Praxissemester und die Diplomarbeit im DLR in Braunschweig. Also auch hier keine Sonderrolle im Schutz der Hochschule.

Perverserweise wollte gegen Ende des Studiums ein Professor der Sozialwissenschaften die Vorlesungen optimieren und wies darauf hin, dass der Dozent doch nicht alles vorzulesen brauchte, was zu lesen war. Trotz direkter Ansprache wollte der Verbesserer das Problem nicht erkennen. Es sind eben meistens die Barrieren in Köpfen, die die größten Hindernisse sind. Dass ein solcher Professor im Bereich Sozialwissenschaften lehrt (auch die hatten schon früher blinde Studenten) spricht für sich!

==Gut, aber reicht das aus?==
Nach vier Jahren konnte ich mein Studium in Regelstudienzeit mit 1,3 abschließen. Man sollte meinen, dass ich damit einen Job im Schlaf bekommen würde. Aber so einfach war es bei Weitem nicht. Erst nach mind. 50 Bewerbungen und dreimonatiger Arbeitslosigkeit konnte ich Fuß fassen. Das zeigt vielleicht, wie mühsam ein solcher Weg auch bei den besten Voraussetzungen ist.

===Berufseinstieg===
2001 begann ich meine Berufstätigkeit bei der DAVID Software GmbH. Beim Arbeitsantritt war ich nicht ganz sicher, ob ich alle notwendigen Werkzeuge bedienen konnte – ist Visualstudio nach wie vor zugänglich? Welche anderen Tools und Anwendungen mussten verwendet werden? Nun, es hat eigentlich recht problemlos geklappt. Mit JAWS und der aktuellen Hardware gab es auch keine instabilen Konstellationen. Ich habe von Beginn an darauf bestanden, einen normalen PC vom Unternehmen zu verwenden und dort Screenreader und Braillezeile zu installieren. Oft liefern Hilfsmittelhersteller ein Komplettsystem und das wird dann meistens nicht durch den Arbeitgeber gewartet. Das mein Beruf das technische Wissen rund um Screenreader und Software mit brachte war natürlich von Vorteil.

==Mein persönliches Bosslevel==

Eigentlich hätte ja alles so bleiben können. Vielleicht hätte ich mich irgendwann gelangweilt und mir etwas gesucht, um mir selbst etwas zu beweisen. Aber eigentlich wäre es doch eine Verschwendung gewesen nach all der Mühe auf dem Weg und all den intensiven Erfahrungen. Und so war ich eher verblüfft als wirklich überrascht, als ich mein vermutliches Bosslevel betreten habe; So wie ein Puzzleteil, dass man nach langem Suchen zu unterst im Karton findet – von dessen Aufdruck man zwar überrascht ist man aber weiß, dass es genau an diese Stelle gehört.

Unser Sohn ist einen Tag alt und in der Angst, er könnte auch blind sein, haben wir viele Fragen gestellt. Aber wer viel fragt bekommt viele Antworten und oft nicht die, die man hören wollte. So lande ich abends vor einer massiven Sicherheitsschleuse. Kinderintensivstation! Zutritt nur für die Eltern; Sämtliche Elektronik abgeben!

Ein Arzt berichtet uns mitten Auf dem Gang, dass man eine zentrale Verbindung im Kopf unseres Sohnes nicht gefunden habe, man aber noch nicht wisse, was das bedeutet. Okay, ein Display hätte dafür auch ausgereicht. Andererseits erinnert mich das eindringliche Pfeifen und Piepen der Inkubatoren daran wo ich mich befinde. So gesehen war es eine eher harmlose Nachricht, die wir erhalten haben.

Klick!!! Hier am Bett meines Sohnes rastet in meinem Kopf alles in ein passendes Bild. Denn mir wird klar, dass ich ab jetzt die zweite Runde fahren muss und dieses Mal als Lotse. Ich kannte zwar nicht den Umfang und Art der Behinderung, aber ich wusste was zu tun war und was in etwa auf uns zukommen würde. Trotz der Inklusionsdebatte machte ich mir keine Illusionen darüber, was dieser Weg bedeutete.

Als sich Monate später Diagnosen und Prognosen stabilisierten, war das Glas halb voll oder halb leer – je nach Sichtweise; Auf der einen Seite ist eine handfeste Körperbehinderung, bei der die überwiegende Mehrzahl an Berufen längst aus dem Rennen ist, bevor mein Kind einen zweiwortsatz sagen kann. Auf der anderen Seite hätte es noch viel schlimmer kommen können und es ist erstaunlich, wie viele Möglichkeiten es auch mit solchen Einschränkungen gibt.

Immerhin wurde nun endlich meine Eingangsfrage beantwortet. Denn nun als Lotse sehen ich sie – die vielen vermeintlich einfachen und bequemen Wege, von denen ich nur zu gut weiß, dass sie am Ende nicht ans Ziel führen werden. Da sind die vielen Experten, die zwar viele Bücher gelesen haben, die aber die Lebenspraxis ihrer Patienten und Klienten doch oft nicht kennen. Es ist frappierend, wie viele Ärzte und Pädagogen uns nach wie vor raten unseren Sohn auf eine Förderschule zu geben obwohl sie wissen müssen, dass es von dort quasi keinen Weg auf den ersten Arbeitsmarkt geben wird und der Schritt in die Welt irgendwann erfolgen muss.

Diese letzten Jahre haben mich geprägt und ich weiß, weshalb ich diesen Weg gehen musste. Nur so konnte ich wohl die notwendigen Erfahrungen und das Wissen erwerben, dass ich nun in die Waagschale werfen kann. Denn während die meisten Eltern in einer solchen Situation absolut nachvollziehbar in ein schwarzes Loch fallen, konnten wir mehr oder weniger direkt starten und das Ruder selbst in die Hand nehmen.

===Fazit===
Vermutlich war es die Summe aus vielen Entscheidungen und Chancen, die mich hierhergebracht haben. Die oft steinigen Wege haben am Ende hierher geführt und mich geprägt. Wenn ich heute an einer Aufgabe tüftele, dann weiß ich um die Hindernisse, die ich bereits überwunden habe und der Ausdauer, die das ermöglicht hat. Ich glaube, das gute Teamfähigkeit und der Willen anderen wo möglich zu helfen für uns entscheidend ist, um uns integrieren zu können. Natürlich braucht es die Chancen zum richtigen Zeitpunkt; Diese müssen dann allerdings auch erkannt und genutzt werden. Selbst wenn sich einmal eine Chance nicht ergibt, so ist es doch beruhigend vor sich selbst sagen zu können, dass man alles probiert hat, was für einen selbst möglich war.

QT 5.3 und 5.4 bringen große und positive Veränderungen für die Zugänglichkeit

Offenbar wird in QT weiterhin fleißig an der Verbesserung der Zugänglichkeit gearbeitet. Das bedeutet auch, dass es neben Java ein weiteres plattformunabhängiges GUI-Framework gibt, für das eine gewisse Zugänglichkeit vorhanden ist.

Der folgende Blog-Artikel beschreibt die Änderungen in QT 5.3 und 5.4, die für diesen Bereich zu erwarten sind:
[[http://blog.qt.digia.com/blog/2014/05/14/accessibility-in-qt-5-3/]]
Dies betrifft vorallem zwei Dinge:
# QT-Anwendungen werden unter Mac OS deutlich zugänglicher
# Die Infrastruktur wird ab QT 5.4 nicht mehr als Plugins sondern direkt im Kern bereitgestellt. Das heißt, dass Software nicht mehr ohne die Schnittstellen ausgeliefert werden kann. Java hat diesen Schritt bereits vollzogen und es uns damit erheblich leichter gemacht.

Wir können also wohl positiv auf die weitere Entwicklung bei QT hoffen.

Einige Autoren von Anwendungen meinen, dass die Zugänglichkeitsschnitstellen in QT instabil seine und liefern sie teilweise deshalb bewusst nicht aus. Der Autor von Caliber sei hier beispielhaft genannt. Aber in Wahrheit sind die Schnittstellen nur eine Art Softwaretest. Durch die Verwendung eines Screenreaders werden viele Anfragen an das Datenmodell der Anwendung gestellt und wenn es kleine Fehler hat, dann stürzt die Anwendung gnadenlos ab. Verhindern können das die Anwendungen nur, wenn sie ein sauberes und stabiles Datenmodell erstellen. Diese Aussage ist keine graue Theorie, sondern erlebte Praxis. Eine Anwendung von uns stürzte mit Screenreaderverwendung solange ab, bis wir das Modell robuster und korrekter im Sinne der QT API gemacht haben. Und schwups, läuft die Anwendung problemlos mit NVDA.

Also: Ich freue mich sehr über diese Entwicklung.

Ein neues Wiki für Tipps und Resourcen rund um Behinderungen

Vor kurzem habe ich zusammen mit anderen begonnen, ein Wiki einzurichten (und vor allem mit Inhalt zu füllen), dass als Informationsquelle für alle möglichen Behinderungen fungieren soll. Foren gibt es viele, aber wenn man gezielt nach Infos sucht udn nicht lange Threads durchlesen möchte, dann ist man oft aufgeschmissen. Für uns ist das Wiki auch eine Art Informationsablage.

Das Wiki befindet sich hier: [[http://www.besonderetipps.de]]
Wir sind über jede konstruktive Mithilfe froh. Helft mit, damit wir eine große Sammlung wertvoller Infos zusammen bekommen.

Mein Hai geht in Teilzeit

Ich habe schon lange auf den Tag gewartet, da NVDA an meinem Arbeitsplatz das Kommando übernimmt. Nich aus Gehässigkeit gegen die kommerzielle Lösung, sondern es sich schon lange abgezeichnet hat. Folgende Ereignisse haben diesen Tag nun wahr werden lassen:
* Immer mehr unserer verwendeten Webanwendungen lassen sich besser mit Firefox und damit auch mit NVDA verwenden.
* Der Zugriff auf das Internet ist nur noch via Firefox möglich – und weil viele Dokus dort liegen, bin ich quasi drauf angewiesen.
* Ich habe endlich das Problem gelöst, dass NVDA bei der Verwendung von Outlook immer eingefroren ist. “schuld” war eine Software namens advanced security for Outlook, die für Catlok verwendet wird. Das ist eine sehr zugängliche Anwendung um die eigenen und die Termine von Kollegen zu überblicken. Nach deinstallation des “Schuldigen” lief NVDA ohne Probleme und dem ständigen Einsatz stand nichts mehr im Weg.

Allerdings brauche ich JAWS noch zum Debugging in Visualstudio und vermutlich auch noch für andere Anwendungen.

Wie auch immer: Ich bin froh, dass es wirklich gelungen ist, als Softwareentwickler produktiv den ganzen Tag mit NVDA zu arbeiten. Das beste daran: Wenn irgendwas zu klemmen scheint, Drücke ich die NVDA-Kombination und die Software wird durchgestartet.

Ich wünsche mir, dass die kommerzielle Konkurrenz wie JAWS endlich aus den Fehlern lernt und Screenreader baut, die stabil laufen und das Abdecken, was die Anwender brauchen. Ich habe den Eindruck, dass oft Funktionen am Bedarf vorbei eingebaut werden.

Mein Computer komponiert und es klingt auch noch recht gut

“Mein Computer ist ein guter – er komponiert; Ich sitz daneben und warte was passiert”
Das ist ein Zitat aus einem Song der Ersten Allgemeinen Verunsicherung, der schon einige Jahre alt ist. Aber viel treffender könnte ich es auch nicht nennen.

Ich experimentiere in letzter Zeit mit einigen Anwendungen, die entweder von sich aus Musik erstellen oder dies in kontrolliertem Umfang tun.

Ein ziemlich erstaunliches Programm ist dabei CG Music. Die Software entstand im Rahmen einer Masterarbeit und liefert sehr nette Ergebnisse auf Knopfdruck. Damit nicht genug, man kann einiges anpassen.

Die software gehört (das ist in diesem Genre leider nicht selbstverständlich) zu den halbwegs bedienbaren Anwendungen.

Hier mal eine Beispielausgabe, bei dem ich nur Tempo und Tonart in einigen Teilen etwas verdreht habe.
[[file:heikoslatin1.mid]]

OK, klingt wie irgendwie alle Songs auf dem PC. Das ist nicht erstaunlich, denn es ist eine Midi-Datei und verwendet die Sounds des abspielenden PCs. Dagegen die gleiche Datei über einen sog. Midirenderer in eine MP3-Datei verwandelt.
[[file:heikoslatin1.mp3]]

Die software ist zu finden unter:
http://codeminion.com/blogs/maciek/2008/05/cgmusic-computers-create-music/#comment-9606

Ich habe die Software mit NVDA getestet. ACHTUNG: Bereits am Anfang muss man zum “Load Project” Knopf mit der NVDA-Navigation laufen. Die Anwendung läßt sich am besten mit der Bildschirmdarstellung steuern und man kann mit der Braillezeile auf die zu bearbeitenden Teile klicken.

Ich habe auch noch andere interessante Anwendungen aus diesem Genre gefunden:
# Fractal music – eine Anwendung, die ähnlich wie ein gewöhnliches Fraktal aus einer Folge eine Musik baut.
# Soundhelix – eine Anwendung, bei der man steuern kann, was zufällig variiert wird und wo feste Noten gespielt werden sollen. Es handelt sich um eine Java-Kommandozeilen-Anwendung.

Eine erfolgreiche Piepshow

Piepshows sind bei mir meistens sehr erfolgreich und zielführend.

die Idee ist wirklich simpel: Beim Programmieren fügt man an bestimmten Stellen Piepstöne ein, um leicht feststellen zu können
* Wird die Stelle angesprungen und wie oft?
* Wie lange braucht die Anwendungen im Bereich zwischen zwei Tönen?
* In welchen Situationen wird die Stelle wie oft ausgeführt?

Dabei erinnere ich mich urück: Es ist schon über 25 Jahre her, dass mir diese einfache Technik den Weg zur Computerei ebnete. Unsere Eltern hatten mir und meinem großen Bruder einen C16 geschenkt (von Sprachausgabe o-ä. war natürlich weit und breit nichts zu sehen). Ich war schnell fasziniert, mein ruder aber nciht. Ohne viel darüber nachzudenken, habe ich mir etwas Basic zusammengeklaubt und angefangen zu experimentieren. Das programm lief von Beginn an bis zum ersten Fehler und blieb dort stecken. Editiert wurde über Zeilennummern – daher brauchte ich nicht wissen, wo der Cursor steht.
Also alle fünf Zeilen einen ton eingebaut, die Töne gezählt und die fünf Zeilen, in denen offenbar ein Fehler war neu eingegeben. Die programme waren winzig, aber die Lösung war damals verwirrend erfolgreich.

Fazit: Manchmal ist es gut, wenn die Umgebung gar nicht lange darüber nachdenkt, ob etwas zugänglich ist. Kinder kommen oft auf Lösungen, die die umstehenden verblüffen.

Vor der eigenen Tür kehren

Nun, bislang hat sich noch kaum jemand beklagt, dass meine Seite schlecht zugänglich wäre. OK, die Themen sind sicher recht speziell, aber gerade deshalb, sollte ich es eigentlich vormachen. Nun, es ist mir natürlich nicht egal, aber ich habe gerade erst über die WordPress-Nachrichten von eine Plugin erfahren, dass einige Probleme bei der Zugänglichkeit löst. Ich habe zwar noch kein Theme, bei dem ich sicher bin, das es als accessibel ready markiert ist, aberdas werde ich bald nachholen. Das Plugin ist jedenfalls aktiviert und hier ist der Artikel, der mir geholfen hat:
http://torquemag.io/making-your-wordpress-site-accessible-to-everyone/

Screenreader im Wandel der Zeit

== Screenreader im Wandel der Zeit ==
Screenreader lesen für blinde Menschen den Inhalt des Bildschirms vor. Da es im netz bereits viele gute Erkläungen hierzu gibt, führe ich das hier nicht weiter aus.
== Tschüß Offscreen-Modell ==
Screenreader müssen sich ständig den Gegebenheiten in aktueller Software anpassen. Es geht letztendlich darum, irgendwie die für den Anwender notwendigen Informationen zusammenzustellen. Da ist prinzipiell jedes Mittel recht, wenn es zum Erfolg führt.

In den Anfängen von Windows bestand eine zentrale Informationsquelle darim, die Grafikausgabe der Anwendungen zu verfolgen und daraus ein sog. Offscreen-Modell zu erstellen. Aus diesem Grund installieren die kommerziellen Reader einen Videotreiber im System. Durch das Abgreifen der Grafikausgabe kann dem Anwender ein genaues Bildschirmabbild aus Texten und Grafiken in Form von Codes bereitgestellt werden. Die Reader wissen außerdem, wenn ein Fenster ein anderes überlagert und zeigen nur das an, was wirklich optisch zu sehen war.

Neben der Grafikausgabe verfolgen die Reader auch die Win32-Ausgabekommandos über den sog. Device Context. Alle Anwendungen, die solche nativen Ausgabemethoden verwenden sind damit gut zugänglich.

Aber das Bild hat sich längst gewandelt. Moderne Frameworks wie QT, Java Swing oder .net verwenden eigene Methoden um Texte und Bilder auf dem Schirm zu bringen. Die beschriebenen Methoden für das Offscreen-Modell bleiben dabei vollkommen außen vor – es kommen auf diesen Kanälen keine brrauchbaren Informationen mehr an.

Stattdessen wurden Schnittstellen wie MSAA weiterentwickelt. Der aktuelle Standard heißt IAccessible2. Dabei wird aus der Holschuld der Screenreader eine Bringschuld der Anwendungen. Es ist, als wenn ein Geheimdienst sagen würde: “OK, wir hören euch nicht mehr ab – ihr müsst uns alles sagen, was wir brauchen.” Aber der Geheimdienst in Form des Screenreaders wartet nicht darauf, dass die Anwendung brav alles anschleppen, denn wir als Anwender stellen ständig Anfragen, navigieren etc. Bei Verwendung des Offscreenmodells hat der Screenreader sein internes Modell befragt und ggf. den installierten Videotreiber um Informationen ersucht. Die anderen Schnittstellen (abgesehen von MSAA) waren darauf ausgelegt, dass der Screenreader mitliest. Mit MSAA und dessen Nachfolger IAccessible2 und seinen Freunden sieht es anders aus. Der Screenreader fragt ständig die Anwendung nach Informationen und läßt sich über Ereignisse benachrichtigen. Dabei greift er gewissermaßen bis in den Speicher der Anwendung.

Eigentlich sollten diese technischen Details dem Endanwender herzlich egal sein. Er möchte nach wie vor den Bildschirm erkunden. Aber genau das ist nicht mehr möglich, denn IAccessible2 sieht vor, dass eine Anwendung ein Baum aus Informationen bereitstellt. Dabei ist es sogar möglich anzugeben, auf welchen Bildschirm bzw. Fensterkoordinaten ein Objekt liegt, aber das ist nur eine Option. Die Position der Objekte auf dem Schirm kann mit dem Baum übereinstimmen, muss es aber nicht. Kurz: Der Screenreader kann daraus kein Offscreen-Modell mehr entwickeln.

Mit dem Offscreenmodell fallen eine Reihe Von Werkzeugen, die JAWS & Co. mitbringen. Z.B. kann man nicht mehr ohne Weiteres eine Grafik beschriften oder einen bestimmten Bereich des Bildschirms als Rahmen definieren. Wenigstens das Klicken auf bestimmte Positionen kann mit anderen Werkzeugen wie Autohotkey nachgebildet werden.

Damit nicht genug; Die ständigen Anfragen der Screenreader über die neuen Zugänglichkeitsschnittstellen setzen die Anwendung ordentlich unter Stress. Zu Beginn der zugänglichen Java-Anwendungen mit Swing waren diese mit Verwendung der Accessbridge so langsam, dass ein flüssiges Arbeiten kaum möglich war. Die Bridge hat außerdem das Verhalten der Anwendung beeinflusst.
QT-Anwendungen, die mit Screenreadern betrieben werden, stürzen deutlich häufiger ab, als ohne Reader. Dies liegt oft daran, dass das Datenmodell in der Anwendung nicht ganz sauber ist. Normalerweise kommt hier kaum jemand vorbei und es gibt keine Probleme. Durch die Vielzahl der Anfragen des Screenreaders zu allen Objekten, die erreichbar sind, sieht das anders aus und die Anwendung tritt auf die Falltür und stürzt ab. Viele Entwickler sind daher der Ansicht, dass die Zugänglichkeitsschnittstelle von QT daran schuld sein. Vielleicht ist sie das auch teilweise, aber man kann zeigen, dass Fehler im Datenmodell sehr schnell mit einem Screenreader aufgedeckt werden. Falls ein Entwickler sich die Mühe gemacht hat, die Anwendung mit Zugänglichkeitsimformationen auszurüsten, wird er es bereuen und diese ausbauen, weil das die Anwendung fordergründig instabil macht.

== Auf ins Web ==
Nun, der Umstieg auf IAccessible2 wäre alleine kein Grund für den hochtrabenden Titel. Die Zukunft hat längst begonnen. Viele große Anwendungen bringen eine eigene spezialisierte Schnittstelle mit, die dann von den Screenreadern verwendet wird. Die Vorleser müssen also nach wie vor auf vielen Hochzeiten tanzen.

Damit nicht genug; Das zeitalter der Webanwendungen hat längst begonnen. OK, mögen viele denken: Die Arbeit im Browser wie Firefox geht doch ganz gut. Für Webseiten, die ein paar Formaulare enthalten stimmt dies auch, aber ganze Anwendungen spielen ssich im Browser ab. Dabei können Menüs an beliebigen Stellen untergebracht werden oder Teilanwendungen als eingebettete Objekte integriert sein. Es gibt sogar hierfür bereits Spezifikationen, damit die Zugänglichkeit gewahrt bleibt. Es handelt sich um Aria das vom W3C schon vor einigen jahren erstellt wurde. Aber viele praktische Probleme sind noch ungelöst:
* Wie kann ein Anwender mit seinem Screenreader Drag-And-Drop in einer Webanwendungen ausführen?
* Wie können die großen Informationsmengen bei einer ökonomisch sinnnvollen Arbeitsgeschwindigkeit bewältigt werden? Webanwendungen präsentieren id.d.R viel mehr Inhalte als klassische Desktop-Anwendunge. Ich nenne das immer den Facebook-effekt. Das HTML von Facebook ist quasi barrierefrei, aber kaum jemand vermag die notwendigen Informationen schnell zu extrahieren.
* Das Aktualisieren der Seiten braucht bei der Verarbeitung durch die Screenreader oft sehr lange.
* Wie kann eine sinnvolle Navigation aussehen, wenn es diverse Menüs etc. auf einer Seite geben kann?
* Wie können Aktualisierte Informationen vorgelesen und per Braille erkundet werden, ohne die zuvor gelesene Stelle zu verlieren?
* Wie erkennt ein Anwender den Kontext eines Links, wenn es davon viele gleichlautende gibt?
== Tablets ==
Apple hat in kürzester zeit aus der Furcht vor Touchscreens unter blinden Menschen eine Begeisterung gemacht. Voiceover hat tatsächlich eine schöne Möglichkeit gefunden, einen Touchscreen für Screenreadernutzer zugänglich zu machen. Dabei wird vorgelesen, was man berührt und erst dann angeklickt, wenn man mit einem anderen finger irgendwo tippt. Natürlich gibt es noch viele weitere Gesten und details. Aber trotz dieser Ansätze bleibt das ganze eine große herausforderung. Es ist nach wie vor nicht leicht sich auf einer glatten Fläche ohne die abgebildeten Steuerelemente sehen zu können zu orientieren. Klar, man kann Elementweise navigieren, aber das ist genauso mühsam, als würde man eine Facebook-Seite Link für Link erkundigen. Wieviele Tage man wohl für eine Seite braucht? Es müssen also weitere Konzepte und Methoden her, befor ein Tablet mit Screenreadern wirklich effizient nutzbar ist – irgendiwe vergleichbar mit der sehenden Konkurrenz.
== Virtuelle Rechner und Fernwartung ==
Weiterhin hält der Trend zur Virtualisierung von computern an. Es ist zu verlockend: Ein Rechner als Gastwirt (Host genannt) und einen PC, den man darauf starten, ihn sichern und im Notfall zurücksetzen kann. Ein virusbefall? Kein Problem – die letzte Sicherung einspiele (ein paar Dateien kopieren) und alles ist wieder gut.

Für Screenreader ergeben sich daraus einige Probleme:
* Das Installieren von Grafiktreibern in Virtualisierte Rechner führt oft zu ärger.
* Die Hardware wie Braillezeilen oder (etwas exotisch) externe Sprachausgaben muss zuverlässig beim Umschalten zwischen virutellen Rechnern und Host umgebogen werden. Klappt das nicht zuverlässig, steht man schnell im Wald.
* Einige Meldungen der virtuellen Systeme bekommt man mit dem Screenreader auf dem Host nicht mit.

Früher waren Werkzeuge zur Vernwartung von PCs sehr teuer und damit nur im Bereich der Administrtion verbreitet. Mittlerweile gibt es einige Freeware-Tools, mit denen jeder Sohn den PC seiner Eltern reparieren kann, ohne das eigene Heim verlassen zu müssen. Screenreader bleiben bei diesen Anwendungen i.d.R außen vor, weil die Grafik pixelweise transportiert wird. Es wäre zwar möglich, auf dem vfernzusteuernden Rechner einen Screenreader zu starten, aber bei Problemen läuft dieser evtl. nicht oder die Übertragung der Sprachausgabe benötigt zu viel Bandbreite auf dem Netz. Eine Lösung, bei der ein Screnreader automatisch eine Art Kopie von sich auf dem anderen Rechner startet, ohne Adminrechte zu benötigen und bei der die Daten so übertragen werden, das die lokale Stimme und Braillezeile den Inhalt wiedergeben wäre hier notwendig.

== Fazit ==
Trotz der Umstellung auf IAccessible2 & co. wird den Screenreaderherstellern sicher nicht langweilig. Es gäbe außerdem genug potenzial für kommerzielle Screenreader, um sich von der freien Konkurrenz abzusetzen.

Der Umstieg von Offscreenmodell auf IAccessible2 & Co. ist mehr als ein Wechsel der Schnittstelle. Sie verschiebt die Verantwortlichkeiten zu den Anwendungen, setzt diese unter Dauerfeuer und kann sie leicht zum Absturz bringen. Ein geschicktes Cachen der Informationen im Screenreader wird hier auf Dauer unerläßlich sein.