|
Dans le cadre du projet AB-Web, nous souhaitons
créer un système qui permette la sonification d'élément HTML (ainsi que la navigation sonore)
à l'aide d'une interface graphique "intéractive".
L'utilisateur pourra sélectionner un élément HTML présent (ou pas) dans le document affiché et lui attribuer un comportement sonore
(non-speach sound ou synthèse vocale).
Tous les comportements possibles sont représentés par des services de base.
L'interface se présentera de la manière suivante (version non définitive):
- (1) : fenêtre d'information (décomposée en 4 sous-fenêtres) :
- arbre du contenu HTML pour le document courant;
- liste de tous les tags HTML (avec highlight pour les tags contenus dans le document HTML courant);
- liste des éléments intéractifs (liens, formulaires, etc.);
- liste des services.
- (2) : fenêtre de Workspace ou Interface Web sélectionnable en fonction du besoin;
- (3) : fenêtre d'information pour les éléments sélectionnés dans la fenêtre (1);
- (4) : ???
De manière basique, le déroulement est le suivant: lors de la phase de sonification, l'utilisateur choisi un élément HTML et le déplace dans la
fenêtre du workspace. Puis, il sélectionne un ou plusieurs comportements (non-sound speech ou synthèse vocale)
à appliquer à ce type d'éléments HTML.
Par exemple, un élément de type liste pourrait avoir un comportement sonore (non-sound speech) qui s'exécute lorsqu'il est highlighté et un
comportement sonore (synthèse vocale) qui, lorsqu'il est sélectionné, donnerait de manière vocale différentes informations préalablement configurées tels
que le nombre d'éléments, le type de liste (numérotée, non-numérotée, ...) etc.
Lorsque tous les éléments ont été sonifiés, l'utilisateur peut passer en mode browsing (exploration spatiale : macro-localisation).
Dans cette première phase d'exploration, le système répond de manière sonore (non-sound speech) en fonction
de la position du curseur dans la fenêtre Web. L'utilisateur pourra ainsi se représenter la disposition spatiale du document HTML.
Ici, la synthèse vocale n'est utilisée que pour restituer des informations précises sur les éléments HTML et non sur leur
contenu.
Dans la deuxième phase (nommée micro-localisation), l'utilisateur pourra naviguer (à l'aide de la synthèse vocale) dans le document Web.
Cette naviguation devra être effectuée à l'aide du keypad. Des services de bases tels que les suivants devront être implantés:
- naviguer de lien à lien (forward and backward);
- lire phrase par phrase (forward and backward);
- lire mot par mot (forward and backward);
- sélectionner un lien.
Une attention toute particulière devra être fournie pour la lecture et la navigation d'éléments graphiques tels que :
- formulaires;
- liens;
- listes;
- tableaux (note: un tableau dont la taille (size) est égale à 0 ne doit pas être considéré comme un tableau, étant donné que nous
supposons qu'il ne sert que pour le positionnement des autres éléments);
Le langage de programmation sera C++ ou en Java. Une attention toute particulière à la programmation et à la modélisation orientée objet
demandée.
|