Archiv für den Autor: Heiko Folkerts

Über Heiko Folkerts

Softwareentwickler mit dem Spezialgebiet Zugänglichkeit (accessibility). Ich bin an fast allen Themen interessiert, solange sie Freiheit und Toleranz nicht einschränken.

Der sichere Weg zur Barrierefreiheit

Der sichere Weg zur digitalen Barrierefreiheit

Einführung

Es gibt nach meiner festen Überzeugung einen festen und sicheren Weg zur Barrierefreiheit. Klingt ein wenig wie die Werbeversprechung eines Overlay-Tools, aber mit ein wenig Zeit kann jeder Leser sich seine eigene Meinung bilden.

Es ist zwar ein sicherer, aber auch komplexer Weg. Deshalb ist es eine Artikelserie.

Der richtige Anfang

Viele warten jetzt bestimmt gespannt auf die allseits bekannten Tests zur Barrierefreiheit – sei es automatisch oder von Experten anhand sperriger Prüfschritte. Über sie werden wir auch sprechen, aber erst am Ende und damit in einer der letzten Artikel. Warum? Ist Barrierefreiheit nicht im Kern Testen und Fehler aufschreiben? Gegenfrage: Besteht eine Abiturprüfung daraus, dass Sie erstmal die Prüfung ablegen und sich hinterher vom Lehrer erklären lassen, was Sie alles nicht wussten? Würden Sie sich überhaupt zu einer Prüfung anmelden ohne gelernt zu haben? Wie hoch schätzen Sie ihre Erfolgsaussichten?

Und da liegt aus meiner Sicht ein Kardinalsfehler: Barrierefreiheit ist im Wesentlichen das Sicherstellen technischer Bedingungen und das Verstehen von Prinzipien. Keine Magie und genauso klar wie die Normen zu Bauprojekten. Kurz, Sie müssen es nur von der richtigen Seite angehen und kommen mehr oder minder automatisch mit sehr guten Noten aus der Prüfung.

Jetzt verspüren viele Anwender, die nicht an der Entwicklung einer Webseite oder einer App beteiligt sind sicher den dringenden Wunsch auf die Testausführung vorspringen zu können. Aber warum sollte der Lehrer sich die Mühe machen die Prüfung im detail zu prüfen, wenn sich der Schüler selbst nicht bemüht hat? Vielleicht für Geld, aber das macht trotzdem keinen Spaß. Sollten Sie also als Tester unterwegs sein und das ungute Gefühl haben, dass Grundlagen nicht verstanden wurden, dann bitten sie den Schüler doch bitte erst zu lernen – beispielsweise diesen Weg zu studieren und auszuführen, bevor er zum Test antritt. Verlagern Sie ihre Bemühungen auf das Verstehen des Prozesses, wie Barrierefreiheit von den Herstellern im Wesentlichen selbst geprüft und sichergestellt werden kann. Sie sollten diesen Weg also als Leitfaden für Ihre eigene Beratung verstehen.

Am Anfang stehen die Anwendungsfälle

Anwendungsfälle sind die Motivation, die Aktionen, und das Ergebnis, mit denen ein Anwender etwas macht. Im einfachsten Fall liest er die Webseite oder ein gesamtes Dokument, um sich zu informieren. In einem Komplexen Fall füllt ehr seine Grundsteuererklärung bei Elster.de aus.

Der erste Schritt besteht nun darin, bei jedem digitalen Produkt festzulegen, welche Anwendungsfälle aufttreten können und sie einzeln darauf zu prüfen, ob sie barrierefrei umgesetzt werden können. Das Lesen einer Webseite ist sicher barrierefrei umsetzbar, aber das Wischen und Matchen bei Tinder dürfte schon schwierig werden. Nicht etwa weil das Wischen und Anklicken nicht geht, sondern weil der Anwendungsfall im Kern darauf beruht eine Kandidat*in schnell und anhand des Gefallens des Fotos zu beurteilen.

Es kommt nun darauf an, wie zentral der Anwendungsfall für das Produkt bzw. das Angebot ist. Tindern ohne Auswahl über Fotos geht nur schwer, aber die Auswahl einer Lieblingssportlerin kann vielleicht anderweitig umgesetzt und erst später berücksichtigt werden.

Eine andere Art von Barriere ist das Fehlen von leichter Sprache. Oft lässt sie sich umsetzen, aber das Ausfüllen juristisch relevanter Dokumente dürfte sehr schwierig werden, weil diese präzise Sprache und Fachbegriffe vorausetzen.

Am Ende dieses ersten Schritts sollten Sie eine Übersicht der Anwendungsfälle aufgelistet und ihnen die Möglichkeiten und Risiken für eine barrierefreie Umsetzung gegenübergestellt haben. Um das zu erreichen können Sie eine Reihe von dingen tun:

  1. Versetzen Sie sich in die Lage der Verschiedenen Anwender – Also Personen mit den unterschiedlichen Einschränkungen. eine Liste mit möglichen sog. Personas finden Sie hier: https://www.ebsco.com/blogs/ebscopost/identifying-user-personas-accessibility-why-its-important Sie sollte einen guten Denkanstoß geben. Versuchen Sie die Schritte aufzuschreiben, wie die Anwendungsfälle mit der jeweiligen Einschränkung durchgeführt werden könnten.
  2. Sie können nach dem Zusammenstellen der Personas auch versuchen die Zielgruppen über Selbsthilfeverbände zu kontaktieren. Dort wird man Ihnen vermutlich ziemlich genau sagen können, welche Möglichkeiten es gibt, um die Anwendungsfälle umzusetzen.
  3. Sie können im Netz recherchieren und verschiedene Hilfstechniken ausprobieren. Bedenken Sie aber hierbei, dass Hilfstechniken oft im Kern komplexer sind und sie viele Funktionen nicht auf Anhieb verstehen werden. Auch hier können die Zielgruppen vermutlich gut helfen.

Die Ergebnisse aus einer solchen Analyse von Anwendungsfällen geben Ihnen wertvolle Ergebnisse:

  1. Sie haben nun einen Überblick über die Art von Anwendungsfällen und welche Möglichkeiten und Risiken für Barrierefreiheit es gibt. Hätten Sie beispielsweise gewusst, dass es möglich ist grafische Kurven mittels Sonification akustisch auszugeben? War Ihnen bekannt, dass Nutzer von Screenreadern detaillierte Informationen über Bilder erhalten können, ohne dass diese optisch sichtbar sind?
  2. Eine solche Analyse gibt Ihnen wertvolle Informationen über das konkrete Projekt hinaus. Haben Sie den Tinder-Fall einmal analysiert lässt sich das auf andere änliche Anwendungsfälle zum optischen Einschätzen übertragen – das Wiedererkennen eines Fotos aus der Verbrecherkartei beispielsweise wird die gleichen Herausforderungen mit sich bringen.
  3. Die Übersicht erlaubt eine grobe Einschätzung zum Aufwand und der Priorität für die Umsetzung der Anwendungsfälle.
  4. Die Anwendungsfälle, die nicht barrierefrei umsetzbar sind, können in der Erklärung zur Barrierefreiheit dokumentiert und ggf. mit den Zielgruppen besprochen werden.
Von vorne her berücksichtigt hat Barrierefreiheit gar nicht so viel mit Technik zu tun wie viele befürchten. Binden Sie die betroffenen Personengruppen von Beginn an ein, könnnen Sie viele Kosten sparen und gleichzeitig auch eine Einschätzung liefern, wie Barrierefrei ihr Produkt sein kann.

Kann ich bitte ein paar Alt-Tags zu meinem album haben?

Ich gehöre ja noch zu denen, die noch Kassetten benutzt haben. Als die CD erfunden wurde, war ich sieben Jahre alt. Mittlerweile heißt das Zauberwort für Musik und filme ja streamen, damit die steigende Leistung des Internets auch aufgefressen wird. Andererseits ist es wohl auch nicht hilfreich, wenn man alle titel auf CDs brennt und sie dann irgendwann als Müll im Meer landen.

Also gut, Zeit, dass ich mich von amazon zum Streamen habe überreden lassen.

Prinzipiell ist https://music.amazon.de/ auch ganz gut zu benutzen, wenn da nicht die nervigen Kleinigkeiten wären.

  • Einige der Knöpfe haben keine Beschriftung oder allgemeine wie Play. Dabei gibt die WCAG eigentlich vor, dass Elemente eindeutig auf einer Seite beschriftet werden müssen.
  • Wenn die Seite Benachrichtigungen anzeigt oder Einstellungen öffnet, dann geht irgendwo ein Dialog auf. Wehe man weiß das nicht – dann sucht man vergebens.
  • Der deaktivierte DRM-Kopierschutz im firefox wird so ausgewertet, dass der Browser veraltet wäre.
  • Man kann zwar eine app herunterladen, die eine Art Browser zu sein scheint, aber da sind dann noch weniger Elemente beschriftet. Und das Paket hat einige Hundert MB an Größe.

Immerhin reicht ein (zugegeben altes) IOS 12.x nicht mehr aus und die Amazon-App braucht IOS 14. Also viel vom Kunden fordern, aber selbst die einfachsten standards nicht einhalten. Und dafür bezahlen muss man auch, wenn man die ganze Palette an Inhalten haben möchte.

So viel zum so oft gelobten amerikanischen Verständnis von Barrierefreiheit.

Eine gute Ergänzung zur Orientierung – weil es Der Gürtel ist, der vieles ändert.

Der sog. Navigürtel ist im Kern eigentlich nur ein guter und verlässlicher Kompas, der immer dort vibriert, wo Norden ist. Damit bietet er draußen wie drinnen die Zusatzinformation um nicht orientierungslos statt zur eingangstür in die Getränkerückgabe zu laufen.

Klingt irgendwie zu banal oder? Haben nicht schon diverse Hilfsmittel inkl. meines handys einen Kompass? Ja, den haben sie, aber wirklich etwas anfangen kann man damit als blinder Mensch meiner Erfahrung nach nicht. Dafür sind die Technik zu ungenau und die Bedürfnisse für einen Stockgänger zu hoch. Kurz: Ein Kompass ist gut, aber nur, wenn er wirklich präzise und zuverlässig funktioniert. Wenn ich mir nicht ein Gerät vor die Brust halten muss, um die Richtung zu peilen. Oh! Sie wollen mir helfen? Kein problem, aber warten Sie bitte noch ein paar Minuten, bis ich den Kurs zur Wursttheke berechnet und gepeilt habe.

Nein, ich wiederhole nicht einfach irgendwelche Slogans, sondern ich hatte sechs Wochen Zeit mir einen eigenen Eindruck zu verschaffen. Gerade die einfache Bedienung ohne App oder Kopfhörer macht den Gürtel zu einem guten alltagshelfer. Ein schönes Beispiel dafür, das oft weniger mehr ist. Endlich weiß man auch im Park, wo Blindsquare und andere Navigationsanwendungen nicht helfen können, weil die Wege keine Namen haben und nicht eingezeichnet sind, zeigt der Gürtel konsequent die Ausrichtung des Körpers an.

Aber es geht schon viel früher los. Selbst in Begleitung bekommt man einen besseren eindruck der eigenen Umgebung – OK, das ist eine lange rechtskurwe und wir sind ungefähr parallel zu einer mir bekannten Straße …

In unserem Büro haben wir einen großen aufenthaltsraum. Den Ausgang wiederzufinden ist nicht ganz einfach und es hilft schon viel wenn ich ohne eine Frage zu stellen direkt merke, ob ich mich in die richtige Richtung bewege.

Ein paar Sätze mit jemandem gesprochen nur um dann leicht gedreht ohne darauf zu achten irgendwo gegen zu rennen.

Die Homepage dazu ist hier: https://www.feelspace.de/naviguertel-blinde

Die langen Schatten der Zukunft werfen ein helles Licht

enstern Dialogen und Menüs auch nach zwei Jahren immer noch nicht ernsthafte Schwachstellen in Puncto Barrierefreiheit offenbart, dann ist das schon bemerkenswert. Wenn der Screenreader eigentlich kaum mehr zu tun hat, als dem Systemfokus zu verfolgen und keine Tricks mit Skripten, virtuellen Ansichten der Anwendung oder dem Training von Werkzeugleisten notwendig sind, dann ist das wohl mustergültig.

Es ist ein Déjà-vu für mich, dass eine Entwicklungsumgebung barrierefreier ist, als fast alle anderen Anwendungen. Damals war es Visualstudio 4.2. Recht gut mit Protalk benutzbar, während nicht einmal die Eingabeaufforderung mit dem Screenreader ausgelesen werden konnte.

Die Schatten aus der Zukunft heißen Eclipse – denn eclipse heißt eigentlich Verfinsterung. Es wäre natürlich viel passender unter einem solchen Namen eine Anwendung ordentlich zu zerpflücken und sich über die Unzulänglichkeiten auszulassen. Aber in diesem Fall habe ich weder Chance noch Grund.

ich habe schon mal über die Nutzung von Eclipse mit Screenreadern geschrieben, aber diesesmal geht es mir eher um das, was die Zugänglichkeit ausmacht und was gut auf andere Anwendungen übertragbar ist.

Von der Oberfläche aus betrachtet geht es bei Eclipse darum viele verschiedene Aspekte einer Arbeitsumgebung so darzustellen, wie es ein Anwender gerade benötigt. Wenn man, warum auch immer, gleichzeitig Fehler beheben und etwas grafisch modellieren möchte, während man gleichzeitig Einstellungen in der Steuerdatei bearbeitet, die dafür sorgt, das ein ganzes Team einheitlich arbeiten kann, dann zeigt das die Flexibilität von Eclipse auf. Nun könnte man annehmen, dass so verschiedene Aufgaben mindestens in unterschiedlich aussehenden Dialogen mit eigenen Hotkeys etc. stattfinden, aber dem ist interessanterweise eher nicht so. Die Menge an benötigten Tastenkombinationen hängt eher davon ab, ob man sich die Mühe macht die Umgebung auf die aktuell benötigten Ansichten zu reduzieren. Anders gesagt, der effizienten Benutzung ob nun mit oder ohne Screenreader steht nur die eigene Arbeitsweise im Weg.

Es gibt unzählige Beispiele für Anwendungen mit ähnlich hoher Komplexität:
* Digital Audio Workstations (DAW)
* Fachanwendunen wie sie in Servicecentern zum Einsatz kommen um die verschiedenen Anwendungsfälle und Aspekte zu bearbeiten, die durch Anrufer etc. ausgelöst werden.
* CMS, CRM und andere Werkzeuge um Kontakte und deren Metadaten zu verwalten
* …

Wendet man die guten Lösungen aus der Finsternis auf solche Anwendungen an, erhält man sowohl eine gute Ergonomie für alle Anwender und eine barrierefreie Anwendung. Welche Art von Prozessen, Organisation etc. die Anwendung konkret umsetzt, ist dabei eigentlich nebensächlich. Worin besteht also der Trick bei Eclipse?

* Alle Elemente der Oberfläche sind per Tastatur erreichbar. Das gilt auch für Elemente die keine Interaktion erlauben, als auch für Werkzeugleisten. Man kann Teile per Hotkey aktivieren, aber sie sind ebenso über das Menü oder andere Wege erreichbar – sich Tastenfolgen zu merken ist zwar schneller, aber kein Ausschluss Kriterium.
* Die Ansichten folgen immer einem ähnlichen Schema
** Werkzeugleisten** Menüs** Navigationselement
** Details
* Eine Ansicht oder Gruppe von Ansichten kann schnell geschlossen und wieder geöffnet werden.
* Werkzeugleisten sind vollständig mit den Pfeiltasten navigierbar und auch deaktivierte Elemente werden dabei angesprungen.
* Zusatzinformationen, die am Rand notiert werden und nicht per Cursor erreicht werden können, sind über eine eigene Navigation erreichbar und die Details können in einem Dialog angezeigt werden. Ein Benutzer eines Screenreaders kann dadurch entscheiden, ob er sich für die ‘Details einer Infoblase interessiert oder nicht.
* Deutlich mehr Tastenkombinationen als in vielen anderen Anwendungen.
* Dialoge mit einer Textbox, über die man die Menge der angezeigten Einträge reduzieren kann. Wenn Sie z.B. nicht wissen, wo sich irgendeine Maven-Einstellung verbirgt, dann beginnen Sie gar nicht erst lange mit der Suche, sondern geben maven in die fikterbox ein. Schon wird aus dem 10-Seiten-Dialog ein übersichtlicher Dialog mit wenigen Einträgen.

Darüber hinaus werden Fachanwendungen etc. immer spezielle dialoge oder Interaktionen mit dem anwender haben, bei denen Barrieren vorprogrammiert sind. Kurven können nicht mit der Maus gemalt werden und Objekte auf einer Oberfläche Platzieren sind nahezu unmöglich. Aber s wäre gut, wenn sich die Hindernisse auf solche Dinge beschränken ließen, denn dann könnte das Wissen um mögliche Lösungen effizienter Barrieren beseitigen, als die gleichen Probleme wieder und wieder lösen bzhw. Wiederholen zu müssen.

Die Beseitigung einer Barriere (sei sie so banal wie eine fehlende Beschriftung oder ein Hotkey) ist mittlerweile ein komplexer Prozess. Anwendungen bestehen aus vielen Teilen verschiedener Autoren und es gilt zu identifizieren, welcher Teil der Anwendung für die Barriere verantwortlich ist. Wenn beispielsweise das Sbuclipse-Plugin in Eclipse nicht zugänglich ist, hat das nichts mit Eclipse selbst zu tun und man müsste die Autoren des Plugins ansprechen. Egal wie schnell hier eine Lösung wäre: Man müsste stets eine Aktualisierung abwarten.

Fazit: Die Entwickler sollten sich an ihrem Lieblingswerkzeug orientieren und ihren Anwendungen genau das beibringen, was ihr eigenes Entwicklungswerkzeug für sie tut. Dummerweise stehen hier oft die Meinung der Anwender und Anforderer im Weg. Für diese ist eine Ausstattung mit Tastenkombinationen und Menüs schnell ein nettes Feature das gerne dem Rotstift weicht. Eine vollständige Zugänglichkeit per Tastatur und die konsequente Verwendung von Standarddialogen bzw. einem einheitlichen Look-And-Fel einer anwendung sollte Bestandteil in einer Norm für gurte und professionelle Software sein.

Surfen auf Java oder blind durch den Jungel aus Klassen

Wenn ich morgens in den Jungel eintauche, dann habe ich neben etwas Coffein ein etwas finsteres Werkzeug namens Eclipse gestartet. Wer mal erleben möchte, wie man den Ram des eigenen PC so richtig belasten kann, der hat schon mal den richtigen Kumpel mit dieser Entwicklungsumgebung gefunden.

Der Urwald besteht aus Projekten vielen, vielen Klassen, Hierarchien, Schnittstellen und noch reichlich mehr. Sich zu verlaufen ist ein Kinderspiel. Es gilt, die gesuchten Stellen im Wald zu finden und meistens eher kleine aber wohl bedachte Fäll- oder Pflanzarbeiten zu verrichten. Wie wird man also Pfadfinder mit einem wohlmeinenden Kameraden, der die ganze Zeit in rasendem monotonen stakato spricht, als wäre IRobot rRealität geworden? Die 80 Stellen auf der Braillezeile sind auch eher eine Hungerlösung für den Outdoor-Freak.

Es beginnt meistens mit einem Startpunkt. Durch Raten, Suchen oder Wissen lässt sich eine Stelle in einer der zig tausenden Dateien anspringen, von der irgendwie der Pfad richtung Ziel führt. Um nach einem beliebigen Text im Wust zu suchen, kann man mit Strg+alt+g einen Dialog öffnen, und dort sein Glück versuchen. Im Ergebnis gibt es einen Baum aus Verzeichnissen, in denen Treffer gelandet wurden – der Wald ist kurz auf die Stellen reduziert, wo die Finsternis fündig wurde.

Der Wald hat tausend Gesichter, und deshalb hat Eclipse die Sichten, die man mit Strg+F7 vorwärts und mit Strg+Umsch+F7 rückwärts durchlaufen kann, in Perspektiven gruppiert. Perspektiven sind quasi der Werkzeugkasten, den man auf eine Expedition mitnimmt, nur das man während dieser denn doch jederzeit sich einen anderen Kasten herbei wünschen kann. Diese Kästen durchspringt man mit Strg+F8 (rückwärts wieder zusammen mit Umschalt). Dabei durchläuft oder –springt man nur, was man auch geöffnet hat – oft sind noch viele Views oder Perspektiven im Menü Window verborgen und man darf sich seine Auswahl freizusammenstellen. Falls einem doch etwas fehlt, kann man beliebige Views über ein Menü öffnen. Möchte man eine so zusammengeöffnete Werkzeugsammlung speichern, so erstellt man eine neue Perspektive. Kurz: man kann sich zu jedem zeitpunkt entscheiden, welche Werkzeuge man gerade braucht. Damit nicht genug lassen sich auch mehrere Perspektiven gleichzeitig öffnen – ja! Sie haben recht, das ist ja auch ein Jungle. Im Kasten Java, der meistens zum Einsatz kommt, gibt es eine ganze Palette an Sichten beispielsweise
• Editor – da wo man in beliebig vielen Fenstern so viele Dateien öffnen kann, wie man mag, braucht oder oft auch viel zu viele. Diese Fenster durchspringt man mit Strg+F6 – Sie haben recht, das mit Umschalt geht hier natürlich auch. Mit Strg+e bekommen sie eine Liste ihrer Schandtaten ähm geöffneten Editoren.
• Problems Die Quittungen für die Fehler, die man so gemacht hat und über die sich Compiler & Co. Ärgern. Wählt man einen aus und drückt Enter, dann wird man mit der Nase auf die problematische Stelle gestoßen. Oft nützt das nix, weil man ein Brett vorm Kopf hat und sich fragt, was denn bitte daran falsch sein soll. Nun, nicht die Partei, wie es so schön hieß, sondern der compiler hat immer recht! Sie können einen Publikumsjoker ziehen und mit strg+1 die Quick fixes aufrufen – dann noch einmal Tab und sie können sich einen Vorschlag aussuchen. Zu den Problemen kommen Sie jederzeit mit Strg+Umsch+q, x – das Komma meint, dass sie nach Strg+Umsch+q die Tasten loslassen sollen und danach ein x eingeben sollen.
• Tauscht man das x am Ende durch ein p, dann gelangt man zum Paketexplorer. Dieser kann Sie schnell durch eine Struktur lotsen und eine der vielen Quelldateien öffnen. Wehe wenn Sie nicht hübsch für Ordnung sorgen, dann können Sie ordentlich im Paket Explorer suchen. Ordnung ist auch hier die halbe Miete, aber für Chaoten und ganz Eilige gibt es Strg+Umsch+t um nach einer Klasse bzw. Typ zu suchen. Man braucht nur die Großbuchstaben des Typnamens einzugeben – Java verwendet ja das sog. Camel Case also GanzTollerTyp oder Tollewurst. Sie können also mit GTT bzw. TW im Eingabefeld die Klasse lokalisieren und im Baum auswählen. Auch Platzhalter gehen, sodass TW* sowohl TolleWurstMitSenf als auch TolleWurstFuerMich finden würde. Springt man im Paketexplorer mit Umsch+Tab zurück, dann landet man auf der letzten Werkzeugleiste der View. Es ist typisch und ein hervorragendes Merkmal des schattingen Begleiters, dass man alle Werkzeugleisten per Tastatur benutzen kann.Im Paketexplorer können Sie z.B. festlegen, ob dieser immer die Datei auswählen soll, die Sie zuletzt bearbeitet haben.

Wenn man nicht nach einer Klasse sucht, sondern nur nach einer Datei, dann kann man Strg+Umsch+r einen dialog zum Suchen nach Ressourcen auswählen – die Hinweise zum Casing und zu den filtern gelten auch hier. Seltsam, dass so etwas effizientes nicht längst in Windows eingebaut wurde.

Hat man eine Ahnung davon, wie eine Methode ungefähr heißt, die man aufrufen möchte, dann kann man anfangen zu tippen und Strg+Leertaste drücken. Leider braucht es noch eine weitere Taste, damit auch der Roboter-Kollege die Auswahl vorliest nämlich F2. Nun können Sie aus den Vorschlägen auswählen. F2 ist auch nützlich, wenn man mit Strg+. Punkt Vorwärts und ob Acht Strg+, also Koma rückwärts durch die Probleme einer Datei geht. Dann wird nämlich der Inhalt des Problems vorgelesen und darüber zu sprechen lehrt die Sozialpädagogik ist ja schon mal was.
Möchte man erfahren, wie denn so die Klassenstruktur an der aktuellen Stelle ist – also welche Klassen von der aktuellen Klasse oder Schnittstelle erben, oder was man alles hier so geerbt hat, dann drückt man F4. Interessiert einen aber wo eine bestimmte Methode, die sich gerade unter dem Cursor in der Klassenstruktur implementiert oder definiert ist, dann nimmt man Strg+t. Damit man eine Liste aller Methoden des aktuellen Typs bekommt, nimmt man Strg+o.
• Hat man einen Typ unter dem Cursor, dann kann man mit F2 dessen JavaDoc ansehen/hören und mit F3 zur Definition des Typs springen. Mit alt+links kommt man zur vorherigen Stelle in einem der Editoren zurück – also von der Definition des Typs wieder zu dessen Verwendung – auch dann, wenn diese nicht in der gleichen Datei liegen. Schön, aber wer ruft eine bestimmte Methode überhaupt auf? Dafür wählt man die Methode und betätigt Strg+alt+h für die Aufrufhierarchie. Wo ist eine Klasse,Variable etc. referenziert erfährt man mit Strg+g. Strg+Umsch+p springt zur passenden anderen Klammer – also vom ender einer Klasse an den anfang etc.

All diese Kommandos verwende ich, wenn ich wie ein Flummi durch den Code springe auf der Jagd nach einem Fehler oder dem richtigen Platz für neuen Code (hoffentlich ohne Fehler). Die Liste ließe sich noch lange, lange fortsetzen, aber merken können Sie sich das wohl eh alles nicht. Müssen Sie auch nicht. Es gibt nämlich unter Window/Preferences den Punkt Hotkeys und da können sie nachschauen, was welchem Kommando zugeordnet ist. Außerdem ist eigentlich alles über das Menü erreichbar – OK fast alles.

Eclipse ist ein gutes Beispiel dafür, wie Zugänglichkeit in den Hintergrund tritt, weil sie einfach da ist und durch die vielen Tastenkombinationen die Arbeit für mich und alle anderen Entwickler gewaltig erleichtert wird. Seltsam, dass die Entwickler ohne Hotkeys kaum leben könne, selbst aber kaum welche in ihren Anwendungen verbauen. IntelliJ hingegen ist vollkommen unzugänglich und den Entwicklern ist’s offenbar auch wurscht. Also immer hübsch in der finsternis bleiben!

Ein paar Tränen rollen aber manchmal trotzdem. In einigen Eingabefeldern schreibt man ein Tab-zeichen, anstatt es zu verlassen. Don’t panic! Einfach Strg+Tab drücken – unter Eclipse springt man damit nicht zur nächsten Registerkarte. Einige Plguins und Views sind unzugänglich so z.B. die Ansicht von Subclipse. Deshalb muss ich meine Versionskontrolle von außen bedienen. Hier würde ich mir wünschen, wenn auch diese plugins sich an die Eclipse -Gepfogenheiten halten würden – wenigstens per Konfiguration.

Das Beispiel zeigt, dass es auch bei vielen und komplexen Daten möglich ist sich blind zurechtzufinden – auch wenn’s ein paar MB des eigenen Brägen für die Hotkeys braucht. Es zeigt aber auch, dass man blind oft eine ziemlich andere Vorstellung von der Struktur eines Codes im Kopf hat, denn oft ist es für mich unerheblich, wo sich eine Klasse in der Struktur befindet. Die Art und Weise, wie Menüs und Werkzeugleisten in views selbst zugänglich sind, könnte Vorbild für viele andere Anwendungen sein. Dazu gehört auchb die kosequente Einbindung aller Steuerelemente in die Tab-Reihenfolge – auch diejenigen, die schreibgeschützt sind. Das ist IMHO ein echter nachteil von klassischen Anwendungen bzw. der Herangehensweise von Windows. Auch die Autovervollständigung und die Möglichkeit zum Sprung zwischen problemen etc. ist z.B. in visualstudio deutlich ungünstiger mit einem Screenreader oder gar nicht benutzbar.

Fernwartung mit NVDA jetzt kostenlos möglich

Eine der herausragenden Funktionen von JAWS war und ist die Möglichkeit, auf entfernte Rechner der sog. Remote Desktop zugreifen zu können. Dafür wird die Professional-Lizenz benötigt und JAWS muss auf beiden Systemen installiert sein.

Etwas ähnliches gibt es nun auch für NVDA. Auch hier muss auf beiden Maschinen NVDA laufen, aber die Unterschiede sind dennoch beachtlich:
* Sowohl NVDA als auch die Erweiterung NVDARemote sind kostenlos verfügbar. Jeder ist eingeladen einen Betrag seiner Wahl zu spenden, um eines oder beide dieser Projekte zu unterstützen.
* NVDA braucht bekanntlich keine Administrationsrechte bei der Installation – sieht man mal von der Verwendung im Anmeldebildschirm ab. Damit dürfte eine Installation von NVDA auf einem Terminalserver o.ä. eine Administrator deutlich weniger Kopfzerbrechen machen als bei JAWS,
* Mit JAWS und seinem Grafiktreiber hat es bei virtuellen Hosts so seine Tücken. Die akzeptieren nämlich häufig nicht, dass ein Grafiktreiber installiert werden soll, oder sind so weit von der Hardware entfernt, dass die Installation seltsame Fehlermeldungen ergibt. Deshalb war die Nutzung von JAWS-Remote in der Praxis für mich oft nicht möglich. Für “normale” Rechner sieht dies freilich anders aus.
* Prinzipiell kann man natürlich darauf bauen, dass JAWS oder NVDA auf dem entfernten Rechner laufen und den Audiokanal zu einem umgeleitet wird. Die Verzögerung und die Audioqualität sind hier aber ein echtes Hindernis. Außerdem fällt damit jegliche Brailleunterstützung weg – nichts um von zu Hause arbeiten zu können.

NVDA Remote wird einfach als Erweiterung in ein laufendes NVDA installiert – zur Erinnerung: Es ist problemlos möglich mehrere NVDA-Versionen auf einem Rechner zu betreiben. Die Erweiterung landet allerdings in Ihrem Benutzerverzeichnis und ist somit überall verfügbar.

Die Erweiterung kann hier heruntergeladen werden:
http://nvdaremote.com/download/
Hier gibt es eine sehr knappe Beschreibung der Erweiterung:
http://nvdaremote.com/blog/

Das Release ist noch ganz frisch und man sollte daher nicht verwundert sein, dass die Beschreibung sehr knapp und die Texte noch auf Englisch sind. Es sollte noch erwähnt werden, dass die Entwickler der Erweiterung zwar bekannte Entwickler im Umfeld von NVDA sind, aber die Entwicklung nichts mit dem Team zu tun hat, das NVDA selbst entwickelt – genau wie bei diversen Erweiterungen für Firefox.

Mit NVDARemote ist NVDA wieder ein Stück näher zu JAWS & Co aufgerückt. Arbeitsplätze, die eine Verwaltung entfernter Maschinen benötigen, können nun oft auch mit NVDA betrieben werden – eine Installation des Screenreaders ist in beiden Fällen nach wie vor notwendig. Außerdem dürfte es nun einfacher sein, andere Anwender zu unterstützen, die NVDA verwenden. Hierfür gibt es bei JAWS das Tandem, aber auch da sind ordentliche Lizenzgebühren fällig.

Voice Vision: Werkzeug ohne Werkstoff?

Vor längerem hatte ich über das Projekt “The Voice” http://www.seeingwithsound.com geschrieben. Es handelt sich um eine recht einfache Methode Bilder in Töne umzuwandeln – sie also zu sonifizieren. Dabei geht es nicht darum sie zu beschreiben oder zu analysieren, sondern ihren Inhalt möglichst verlustfrei akustisch wahrnehmbar zu machen. Da hinter steht die Theorie von Peter Meyer, dass das menschliche Gehirn dazu in der Lage sein sollte solche Bilder die akustisch aufgenommen wurden in eine optische Wahrnehmung umzusetzen.

The Voice gibt es für den PC und für Symbian sowie Android, aber nicht für IPhone. Deshalb hat ein chinesischer Entwickler quasi den gleichen Algorithmus in einer IPhone-App namens “Voice Vision” umgesetzt. die App ist (inkl. Upgrades auf die Vollversion) kostenlos. Wer “The Voice” kennt, kommt hiermit sicher auch schnell zurecht. die Tutorials zeigen anhand von Beispielen wie Bilder “klingen”.

Nun gut, die App funktioniert wie erwartet und man kann erahnen, welche bekannten Gegenstände sich auf den Bild befinden könnten, wenn man weiß, was man vor sich hat. Es wäre also eine Frage der Übung unbekannte Bilder zu erkennen. Dabei muss man wissen, dass sich nur recht grobe Strukturen erkennen lassen können (die Auflösung ist gering und für komplexe Bilder braucht es viel Erfahrung und Wissen über optische Gesetze). Was macht man nun mit einer solchen app? Wo lässt sie sich wirklich anwenden?

Der Entwickler gibt an, dass man mit dem Tool Kanten, Türen etc. erkennen kann. Schön, aber war das bislang wirklich ein Problem? Das IPhone muss man mindestens mit einer hand halten und ausrichten – die könnte man auch zum tasten nach den gleichen Hindernissen verwenden. Außerdem ist die Auswertung der akustischen Echos von Schritten und Klicks bei vielen blinden Anwendern recht gut ausgeprägt, sodass sie auch mit vollen Händen durch die Tür finden. The Voice schlägt eine ideosonnenbrille wie Google Glasses vor. Dabei wären die Hände dann wirklich frei und man „sieht“ ohne etwas in der Hand halten zu müssen. Gleichzeitig unterstützt The Voice Spracheingaben, sodass man die Anwendung anweisen kann, ein- oder auszuzhoomen etc. Dies sind zentrale Unterschiede, die auch ü ber die tatsächliche Anwendbarkeit entscheiden dürften.

Endlich die Freundin auf einem Foto “anschauen”? Das würde nicht viel bringen, da ein solches Bild viel zu komplex wäre. Farben von Klamotten etc. können auch andere Anwendungen oder Geräte erkennen. Geschriebene Texte sollte man wohl besser durch eine OCR jagen, denn die dürfte deutlich leichter den Text extrahieren können.

Leider bietet die App nicht die Möglichkeit durch die eigenen Fotos auf dem Gerät zu stöbern und sich evtl. deutliche Abbildungen anzuhören. Das wäre vielleicht eine interessante Erweiterung.

Ich will nicht behaupten, dass die Anwendung unnütz wäre. Es ist eine Möglichkeit in die Welt der Bilder einzutauchen. The voice hilft hier wiederum, weil man beliebige Bilder öffnen kann, sodass auch einfache zeichnungen von anderen Personen in gewisser Weise erkannt werden können. Durch die Mathematik-funktion (die ausgabe von Grasfen) ist eine sehr pragmatische und interessante Anwendung gelungen.

Kurz: Ich kann mir derzeit nicht recht eine sinnvolle Anwendung vorstellen. Vielleicht hat ja einer meiner Leser eine gute Idee?

Der steinige Weg zur Inklusion

Gestern am 05.05. war ich zu einem Fachtag für den Braunschweiger Aktionsplan eingeladen. Nun ist es Zeit Bilanz zu ziehen.

In den vergangenen Jahren hat eine Arbeitsgruppe unter dem Namen „Braunschweig inklusiv“ Leitlinien zur Erstellung eines Aktionsplans erstellt. Der Fachtag sollte dazu dienen konkrete Vorschläge an die Stadt zu formulieren.

Organisiert wurde die Veranstaltung von der Lebenshilfe Braunschweig. Eingeladen waren auch der Behindertenbeirat und weitere Gäste.

In der Eröffnungsrede wurde zwar die Präambel der Leitlinie vorgelesen, aber keine konkreten Punkte hieraus. Weiterhin wurden Bedeutung und Funktionsweise der UN-BRK besprochen. Das mag zwar für einzelne Teilnehmer neu gewesen sein, aber von einem Fachtag würde ich erwarten, dass diese Grundlagen vorher bekannt sind.

Im Kern wurde in Arbeitsgruppen an Vorschlägen gearbeitet. Dabei wurde das Thema Bildung und Erziehung kurzer Hand gestrichen. Die Gruppe wäre nicht voll geworden hieß es. Leider gab es vorher keine Möglichkeit sich für eine Gruppe anzumelden bzw. die Einteilung wurde nicht auf der Anmeldung abgefragt. Ausgleichend zu diesem Ausfall wurde das Thema Wohnen in zwei Gruppen bearbeitet. Es ist bezeichnend, wenn ein so grundlegendes Thema wie Bildung und Erziehung durch eine Zusatzgruppe für das Wohnen ausgetauscht wird. Wohnen ist zwar für die Klienten der Lebenshilfe sicher ein wichtiges Thema, aber aus meiner Sicht nicht gegen ein so zentrales Thema wie die Bildung zu tauschen.

Die Einladung kündigte an, dass der Veranstalter ermitteln wolle, welche Projekte durch Kompetenz und Knowhow der Lebenshilfe unterstützt werden können. Von Projekten war allerdings in den Arbeitsgruppen kaum noch die Rede.

Im abschließenden Plenum wurden eine Reihe allgemeiner Punkte zusammengetragen, die auch hätten von einer Taskforce hätten erstellt werden können. Es bleibt abzuwarten, welche davon als konkrete Vorschläge und Forderungen an die Stadt weitergegeben werden.

Mein Fazit fällt dürftig aus. Kommentare zu den Leitlinien wurden auch in den Arbeitsgruppen zum jeweiligen Thema überhaupt nicht erwähnt geschweige denn berücksichtigt – schön dass sich Leute die Zeit genommen haben, diese zu formulieren. Der Verzicht auf Bildung wurde mehr oder weniger deutlich damit begründet, dass dies nicht im Bereich der Lebenshilfe liege. Genau, wir sind so inklusiv, dass wir nur das bearbeiten, was unserer Klientel hilft, aber bloß keinen anderen betroffenen Menschen oder gar Kindern in der gleichen Stadt? Können wir nicht über den Tellerrand hinausschauen und ist die Inklusion selbst in den eigenen Reihen noch nicht wirklich angekommen? Ein Teilnehmer merkte an, dass in den Büros der Lebenshilfe offen bar noch keiner der betroffenen selbst arbeitet. Wie wollen wir da Inklusion von unserer Umwelt einfordern?

Die Arbeitsgruppen wurden von mehrköpfigen Moderationsteams geleitet, die alle offenbar hauptamtlich bei der Lebenshilfe beschäftigt sind. Deshalb hätten die Ergebnisse konkreter und präziser sein müssen. Es ist nicht ausreichend, ein paar Schlagworte zu sammeln und diese zu clustern. Es wäre ein Erfolg gewesen, wenn aus jeder Arbeitsgruppe ein oder zwei konkrete Vorschläge mit Lösungsvorschlägen erstellt worden wären.

War die Veranstaltung also sinnlos oder gar überflüssig? Ich denke nicht! Zumindest bleibt zu hoffen, dass einige der Punkte wirklich bei Verantwortlichen landen. Ich selbst habe einen anderen Blick auf die Situation in den Werkstätten bekommen und mir ist klar geworden, wie weit der Weg für diese Menschen hin zur Inklusion noch ist.

Wie bei so vielen großen Visionen besteht der Weg aus vielen kleinen und mühsamen Einzelschritten, die alleine nur wenig Sinn ergeben. Wer diesen Weg wirklich will, muss wohl Veranstaltungen wie diese besuchen und versuchen das Beste daraus zu machen, denn es sind immer viele Akteure mit unterschiedlichen Interessen aktiv.

IPhone 5 antwortet nicht

Das IPhone hat sich mittlerweile fest als sehr gut zugängliches Smartphone für blinde Menschen behauptet. Allerdings gibt es ein paar Dinge, die wirklich seltsam anmuten.

So gut die sprachausgabe und Unterstützung durch Voiceover auch sein mögen, so irritierend ist es, dass man nur schwer in der Lage ist, ein Telefongespräch zu beenden. Man sollte meinen, dass dies eine Kernfunktion eines Mobiltelefons ist. Wahrscheinlich gibt es hierfür eine einfache Lösung, aber ich habe sie beim besten Willen noch nicht gefunden. das Doppeltippen mit zwei fingern sorgt jedenfalls nicht dafür, dass das Gespräch zuverlössig beendet wird. Also sollten besser Sie auflegen, wenn sie mit einem IPhone-Neuling mit voiceover gesprochen haben!

Eine zweite skurile Verknüpfung besteht darin, dass das Einschalten eines Weckers über Siri automatisch das Telefon auf “nicht stören” schaltet. Wehe jemand versucht sie danach anzurufen. Erkenntnis daraus: Es ist immer eine blöde Idee, wenn die Software schlauer sein will, als der Anwender. Besser man verwendet einen Schnöden Wecker jenseits des Apfeltelefons.

Zuletzt sei noch der Schalter über der Lautstärkeregelung erwähnt, der in einer Stellung das telefon nicht klingeln läßt – egal was Sie in den Menüs eingestellt haben. Das Telefon vibriert, wenn diese funktion eingeschaltet – das Handy also lautlos wird.

Wer übrigens versucht, seinen Account im appstore selbst einzurichten wird vermutlich über die Telefonnummer im Bereich der Rechnungsdaten stolpern. Hier werden zwei nicht richtig zugängliche Steuerelemente verwendet nämlich für Vorwahl und Telefonnummer. Damit klappt dann die Einrichtung des Appstores nicht und das ist ein echter Showstopper.

Kopfhörer raus! Geld her!

Als unsere lokale Filiale Der NordLB umgezogen war, wurden Geldautomaten aufgestellt, mit denen man blind per Sprachausgabe Geld abheben können sollte. Die gesichter der Mitarbeiter wurden ziemlich lang, als mein spontaner Praxistest keinerlei Sprache ergab. Nach einigem hin und her stellte sich heraus, dass für die Sprachausgabe eine spezielle software in einem Rechenzentrum hätte eingespielt werden müssen. Die Automaten blieben stumm und das Problem des Geldholens bestehen.

Nun hat sich endlich etwas getan. Der lokale Blindenverein veröffentlichte eine Mitteilung, dass die automaten ihre Sprache nun gefunden hätten und das kam mir gerade recht. Also ein zweiter Praxistest und zwar ohne sehende Hilfe.

Das ergebnis hat mich positiv überrascht. Sobald der Kopfhörer direkt neben dem Kartenschlitz eingesteckt wird, beginnt die Menüführung zu sprechen. Ein paar Anmerkungen grundsätzlicher art hätte ich allerdings:
– Es ist etwas zynisch, dass die automaten ohne Sprachausgabe mit Blindenschrift beschriftet sind (also Kartenschlitz, Geldausgabe etc.), aber die mit sprachausgabe hier keine Beschriftung haben.
– Ich hoffe, dass die Entwickler so klug waren, den Bildschirm bei Verwendung der Sprachausgabe abzudunkeln bzw. zu verschleiern um neugierigen Passanten den Einblick zu nehmen. Mindestens sollte dies eine mögliche Option zu Beginn der Menüführung sein.

Die Menüführung beginnt damit, dass erläutert wird, wie die Karte einzulegen ist und Fehler hierbei werden kommentiert. Anschließend erhält man die Optionen Kontostand oder Auszahlung. Der Hinweis, das die Geheimzahl verdeckt einzugeben ist und bestätigt werden muss ist gut. Leider wird nicht gesagt, wo die Bestätigungstaste ist (nämlich unten rechts). Anschließend kommt der Teil, der mich in seiner Lösung interessiert hat. Normalerweise wählt man den Betrag durch Tasten Links und Rechts am Bildschirm aus. Hier hat man mitgedacht und steuert dies über den Nummernblock. sodass man nur mit dem Nummernblock interagieren muss.

Fazit: das selbstbestimmte und unabhängige Abheben von Bargeld ist nun in zwei Filialen der NordLB endlich möglich. Die Menüführung ist gut umgesetzt und es gäbe nur ein paar Details nachzubessern. Vielleicht könnten die automaten, die eine Sprachausgabe anbieten sich mit einem akustischen Hinweis alle X Sekunden bemerkbar machen, damit man sie leichter findet. Es bleibt zu hoffen, dass diese Geldautomaten sich endlich in der Fläche durchsetzen und das eigenständige Abheben von geld überall möglich ist.