Kommunikationshilfe ( Talker ) App - Wer kann so eine App entwickeln ?

  • Antworten:45
  • OffenNicht stickyNicht beantwortet
  • Forum-Beiträge: 14

24.03.2011, 22:15:17 via Website

Hallo,

Eine mögliche App für Android, hier vor allem den vielen neuen pads, wäre eigentlich die eines Talkers (Kommunikationshilfe) .

Mir fehlt dafür leider das erforderliche Wissen und Zeit um so eine App zu erstellen.

Wichtig wären wechselbare Themenbereiche, eigene Themen, einstellbare Symbolgröße und Anzahl auf dem Screen (1bis ...). Neben vorgegeben Symbolen sollten auch eingene Bilder /Buttons möglich sein sowie Text2Spech.
Das angewählte Symbol zur Sprachausgabe sollte sich wärend der Sprachausgabe deutlich hervorheben. Rückmeldung über Vibration währe auch nicht schlecht.


Eine App in dieser Art gibt es meines Wissens bisher nicht für Android ....

Spezielle Geräte im Rehamarkt sind z.B. Dynavox , Tobii , ...

Wenn jemand so eine App erstellt würde ich gerne als Tester mich anbbieten :grin:

Antworten
  • Forum-Beiträge: 14

31.03.2011, 17:18:47 via Website

Keiner? Spezielle Geräte kosten rund 5000€ :( und sind dabei weniger flexibel als es ein Android Pad oder Handy sein könnte.

Antworten
  • Forum-Beiträge: 52

02.04.2011, 15:14:45 via Website

Also ich hab so keine Ahnung was du genau meinst. Beschreib es doch vllt noch ein wenig.
Was genau soll so eine Talker-App können? Welche Zielgruppe? Warum für Android und nicht spezielle geräte? Usw...
Vielleicht findest du dann eher jemanden der Zeit und Lust hat.

Antworten
  • Forum-Beiträge: 114

09.04.2011, 09:46:52 via Website

Für Windows Mobile gibt es eine entsprechende App schon, die längere Zeit auf einem Loox ausgeliefert wurde. Eine Portierung auf Android wäre tatsächlich gut, z.B. für Patienten mit schweren Aphasien oder frontotemporalen Demenzen, wo die Sprachunfähigkeit oft lange vor den anderen Symptomen kommt und die Menschen einsam macht.

Das wäre auch eine hervorragende Nutzung für die kommenden Tabletts. Denn da sind eigentlich die bisherigen Geräte oft aufgebaut, siehe z.B.:

http://www.epitech.de/html/aladin.html

And Dev, wie wäre es? Dir würde ich das durchaus zutrauen, auch wenn es nicht ganz ins Spektrum Deines AG passt. Wenn Du ein Loox-Anschauungsmodell brauchst - meld Dich- es kullert ein Demo-Modell bei mir rum.

Gruß Sylvia -duck und weg-

Antworten
  • Forum-Beiträge: 2.545

09.04.2011, 13:26:11 via Website

And Dev, wie wäre es?

Dann will ich mal ein paar Gedanken dazu aufschreiben:

  • Das von dir genannte AladinTalk bewegt sich in einem Preis-Segment von 3958 - 6898 Euro, der TE bestätigt dies auch für andere Geräte ("rund 5000 Euro")
  • Was Menschen mit Sprachunfähigkeit oder Gehörlose üblicherweise nicht besitzen ist ein Handy
  • "ALADINtalk stellt dem Anwender schon in der Grundausstattung rund 7.000 Kommunikationssymbole zur Verfügung."
    Wer würde mir die malen? Was kostet der Designer, der das dann machen muss?

Wenn es also um eine Neuentwicklung geht, dann haben wir es mit einem Projekt zu tun, dessen Realisierung sehr kostenaufwendig ist und auf der anderen Seite eine verschwindend geringe Zielgruppe erreicht (weil derzeit so gut wie jedes Gerät, auf dem Android läuft, ein Handy ist, und weil Android-User bislang nicht gerade dafür bekannt sind, für Software gerne/überhaupt Geld ausgeben zu wollen).

Eine Portierung hätte eher eine Chance, nicht zu einem finanziellen Fiasko zu werden, da die meisten Resourcen bereits zur Verfügung stehen; vielleicht schreibst du den Hersteller der PDA-Anwendung (Loox) einfach mal an und fragst dort nach?
Aus reinem Interesse: was kostet(e) denn die Loox-Variante, und ist sie vergleichbar mit deinem Aladin-Beispiel?

Eine weitere Option wäre ein Community-Projekt, da müsstest du aber erstmal einige Leute finden, die bereit sind, ihre Freizeit ohne Gegenleistung zu investieren, um zB Grafiken zu erstellen, Tonaufnahmen einzuspielen, praktikable Hierarchien für die Symbole zu finden etc.;
und da scheint es dann so auszusehen, das die gleichen Leute, denen 1 Euro für eine App zu teuer ist, eben nicht bereit sind, ihre Freizeit/Fähigkeiten für diesen Preis oder weniger zur Verfügung zu stellen.


-duck und weg-

*hehe* ich glaube das ist jetzt eher mein Part ;)

Antworten
  • Forum-Beiträge: 114

09.04.2011, 17:49:46 via Website

Lieber And Dev,

[quote=and dev]


Dann will ich mal ein paar Gedanken dazu aufschreiben:

  • Das von dir genannte AladinTalk bewegt sich in einem Preis-Segment von 3958 - 6898 Euro, der TE bestätigt dies auch für andere Geräte ("rund 5000 Euro")
  • Was Menschen mit Sprachunfähigkeit oder Gehörlose üblicherweise nicht besitzen ist ein Handy
  • "ALADINtalk stellt dem Anwender schon in der Grundausstattung rund 7.000 Kommunikationssymbole zur Verfügung."
    Wer würde mir die malen? Was kostet der Designer, der das dann machen muss?

Die Preise liegen tatsächlich in dem Bereich. Aber/ und diese Geräte sind anerkannte Hilfsmittel. Und bisher hat noch jeder!!!! meiner Patienten einen entsprechenden PDA oder heute ein Smartphone gehabt oder sich angeschafft, wenn er einen Sinn darin sah. Hörgeschädigte z.B. nutzen heute Android mit einem Icom über Bluetooth. Du glaubst nicht, was das für Welten eröffnet. Zum ersten Mal Musik hören. Da kann man Tränen sehen.
Außerdem braucht man als Gehörloser kein Fax mehr, wenn man mit seinen Leuten über SMS oder z.B. Whatsapp kommuniziert. Du glaubst gar nicht wie sehr das als Hilfe erlebt wird. Allein dadurch sinkt die Depression auf die Hälfte (eines meiner Therapiegeheimnisse ;-) ). Außerdem arbeiten bei mir auch fast alle Patienten mit Merkfähigkeitsstörungen mit einem Smartphone (früher WM, jetzt Android), damit Angehörige an Termine etc. erinnern können bzw. eben gehörtes als Audionotiz "gemerkt" werden kann. Dank MyPhoneExplorer können Angehörige hier wieder als "Erinnerer" tätig werden, wie früher unter WM mit entsprechender Outlooksynchronisation.

and dev
Wenn es also um eine Neuentwicklung geht, dann haben wir es mit einem Projekt zu tun, dessen Realisierung sehr kostenaufwendig ist und auf der anderen Seite eine verschwindend geringe Zielgruppe erreicht (weil derzeit so gut wie jedes Gerät, auf dem Android läuft, ein Handy ist, und weil Android-User bislang nicht gerade dafür bekannt sind, für Software gerne/überhaupt Geld ausgeben zu wollen).

Eine Portierung hätte eher eine Chance, nicht zu einem finanziellen Fiasko zu werden, da die meisten Resourcen bereits zur Verfügung stehen; vielleicht schreibst du den Hersteller der PDA-Anwendung (Loox) einfach mal an und fragst dort nach?
Aus reinem Interesse: was kostet(e) denn die Loox-Variante, und ist sie vergleichbar mit deinem Aladin-Beispiel?

Eine Neuentwicklung wäre wahrscheinlich wirklich ein Riesenaufwand. Gleichzeitig gibt es mehr junge Aphasiker und Menschen mit massiven Dysarthrien als wir uns träumen lassen. Für eine Portierung wäre allerdings wirklich eine Tablet-Variante (ca. 10") am besten, weil sie noch Taschentauglich ist und gleichzeitig gut ablesbar.

Das gaaanz große Problem liegt aber auf einer anderen Ebene. Die Krankenkassen zahlen eine solche Kommunikatinshilfe nur dann, wenn diese nichts anderes kann. D.h. alle PDAs oder Smartphones fallen raus. Das führte bei einem meiner Patienten (23 Jahre) dazu, dass er ein Touchspeak-Gerät für das Sprechen und einen PDA als Erinnerungshilfe für die Gedächtnisstörung ständig mit sich rum schleppen mußte. Er hat jetzt ein Desire mit meinen kleinen Eigenbaugeschichten und fühlt sich seit langer Zeit mal wieder wie ein junger Mensch.
Wenn es eine Variante mit vertretbaren Kosten gäbe würden es sich wahrscheinlich doch recht viele Leute bzw. deren Angehörige kaufen, um den Monatelangen Kampf mit den Kassen um ein am Ende nicht optimales Gerät zu umgehen. Wegen des Programms, was auch unter WM lief

siehe z.B. hier: http://www.phoenixsoftware.de/rehabilitation/produkte/touchspeak/touchspeak-empfohlene-geraete.html

Ich weiß schon, dass so ein Projekt nicht als "mal Nebenbei" geht. Aber es ist sehr, sehr schade, weil es viele Menschen, die vom Technischen Fortschritt am meisten profitieren könnten ausschliesst. Also mache ich weiter mit

Ein Bild -> einen Satz aufnehmen und verknüpfen der dann gesprochen wird wenn das Bild berührt wird. Ganz profan auf einen Homescreen und nur für Notfallsachverhalte (z.B. Ich möchte dort und dort hin.....) möglich.

Tja, so ist das Leben.

Viele Grüße von Sylvia, die mit Deinem anderen Programm immer noch sehr zufrieden ist.

Antworten
  • Forum-Beiträge: 2.545

09.04.2011, 20:06:36 via Website

Das gaaanz große Problem liegt aber auf einer anderen Ebene. Die Krankenkassen zahlen eine solche Kommunikatinshilfe nur dann, wenn diese nichts anderes kann. D.h. alle PDAs oder Smartphones fallen raus.

Yepp, den wollte ich mir für den nächsten Beitrag aufsparen ;)
Eine Software kann man mW nicht als Hilfsmittel zulassen, und das bedeutet, das eine entsprechende Entwicklung sich zusätzlich dem Problem ausgesetzt sieht, das der Patient eine alternative Lösung kostenlos bekommen kann, während "dein" Produkt von ihm (teuer) bezahlt werden muss.


Ich weiß schon, dass so ein Projekt nicht als "mal Nebenbei" geht.

Das ginge durchaus, wenn mehr Leute bereit wären, sich in ein solches Projekt einzubringen.


Ein Bild -> einen Satz aufnehmen und verknüpfen der dann gesprochen wird wenn das Bild berührt wird. Ganz profan auf einen Homescreen und nur für Notfallsachverhalte (z.B. Ich möchte dort und dort hin.....) möglich.

Das beschreibt die Natur einer solchen Software eigentlich schon ganz gut, soweit ich das ohne mich einzulesen beurteilen kann :)
Man bräuchte eine Verwaltung einer frei definierbaren Menge von Objekten (hier: Bilder), denen jeweils eine Aktion zugeordnet werden kann:
- Audiodatei abspielen
- neues Menü (Bilderliste) öffnen (der PDA in deinem Link wird ja sicher nicht nur 5 Sätze sprechen können, oder? ;)
- nochwas?

Die Software startet im Nutzer-Modus, zeigt also das zuvor definierte Hauptmenü (Bilderliste) an und führt beim Antippen eines Objektes die dafür definierte Aktion aus.
Daneben gibt es einen Admin-Modus, der die Definition der Menüs und Aktionen erlaubt (das könnte ggf auch ein eigenständiges Programm sein); Definitionen werden in einer Datenbank gespeichert, Bilder und Audiofiles kommen auf die SD Karte (die DB würde ich ebenfalls dort speichern, weil das eine einfache Synchronisation erlaubt und die Möglichkeit eröffnet, den Admin-Teil auch am PC durchführen zu können)

Hab ich noch was vergessen?

Antworten
  • Forum-Beiträge: 114

09.04.2011, 20:24:09 via Website

and dev


Das beschreibt die Natur einer solchen Software eigentlich schon ganz gut, soweit ich das ohne mich einzulesen beurteilen kann :)
Man bräuchte eine Verwaltung einer frei definierbaren Menge von Objekten (hier: Bilder), denen jeweils eine Aktion zugeordnet werden kann:
- Audiodatei abspielen
- neues Menü (Bilderliste) öffnen (der PDA in deinem Link wird ja sicher nicht nur 5 Sätze sprechen können, oder? ;)
- nochwas?

Die Software startet im Nutzer-Modus, zeigt also das zuvor definierte Hauptmenü (Bilderliste) an und führt beim Antippen eines Objektes die dafür definierte Aktion aus.
Daneben gibt es einen Admin-Modus, der die Definition der Menüs und Aktionen erlaubt (das könnte ggf auch ein eigenständiges Programm sein); Definitionen werden in einer Datenbank gespeichert, Bilder und Audiofiles kommen auf die SD Karte (die DB würde ich ebenfalls dort speichern, weil das eine einfache Synchronisation erlaubt und die Möglichkeit eröffnet, den Admin-Teil auch am PC durchführen zu können)

Hab ich noch was vergessen?

So ähnlich funktioniert z.B. Touchspeak. Man kann mit der PC-Software auch als Patient selbst neue Sachverhalte z.B. durch Familienangehörige sprechen lassen und den Satz mit einem passenden Bild verknüpfen. Das ganze überspielt man dann auf den PDA mittels Activesync.

Ich mache es im Moment (mangels guter Programmierkenntnisse) so, dass ich für Android mit einfachen Verknüpfungen arbeite. Das ist aber naturgemäß nur mit wenigen Sachverhalten möglich, eben weil es keine Kategorisierung oder Hierarchisierung geben kann, außer derzeit über Folderorganiser (Thematische Bilder mit entsprechenden Sätzen in FolderorganiserOrdnern auf dem Desktop) ganz einfach gestrickt. Als Notbehelf wird es aber trotzdem gern genutzt und meine Patienten helfen auch, wenn sie was selbst "gestrickt" haben bekomme ich es auch.
Trotzdem ist es unbefriedigend.

Gruß Sylvia


Viele Grüße von Haus

Antworten
  • Forum-Beiträge: 2.545

10.04.2011, 14:47:37 via Website

So ähnlich funktioniert z.B. Touchspeak.

Das würde dann bedeuten, das man sogar auf die Datenbank verzichten könnte, da sich die Struktur dann in Form von Verzeichnissen mit Tupeln (001.png, 001.mp3) bzw. (004.png, 004 [Ordner]) abbilden läßt?
Die Namen wären dabei für Sortierung/Zuordnung zuständig (und könnten auch Klartext zur Identifizierung enthalten), die .png werden angezeigt und die zugehörige Datei dann abgespielt/geöffnet.

So würde man sich sogar das Admin-Tool sparen können, weil es der Explorer dafür dann auch tut :)

Oder geht dabei dann irgendeine Funktionalität verloren, über die hier noch nicht gesprochen wurde?

Antworten
Gelöschter Account
  • Forum-Beiträge: 5.136

10.04.2011, 17:05:21 via Website

Nur mal so rein theoretisch gefragt, würde es nicht reichen wenn die Sprachausgabe mit Bordmitteln realisiert werden würde, also mit der TextToSpeech-Engine von Android?

In etwa so wie ich es hier mal gemacht habe als Mini Test:


Die Mini-App heisst VosiVox und spricht verschiedene Sätze, je nachdem was für ein Bild man antippt.

Diese Form der Sprachausgabe würde die normalerweise erforderlichen, riesigen Speicherplatz benötigenden Soundfiles vermeiden. So könnte man sich einerseits auf die zu sprechenden Texte und dazugehörigen Bilder konzentrieren und andererseits das ganze auch gleich Multilingual auslegen.

lg Voss

Antworten
  • Forum-Beiträge: 114

10.04.2011, 17:21:46 via Website

Jörg V.
Nur mal so rein theoretisch gefragt, würde es nicht reichen wenn die Sprachausgabe mit Bordmitteln realisiert werden würde, also mit der TextToSpeech-Engine von Android?

In etwa so wie ich es hier mal gemacht habe als Mini Test:


Die Mini-App heisst VosiVox und spricht verschiedene Sätze, je nachdem was für ein Bild man antippt.

Diese Form der Sprachausgabe würde die normalerweise erforderlichen, riesigen Speicherplatz benötigenden Soundfiles vermeiden. So könnte man sich einerseits auf die zu sprechenden Texte und dazugehörigen Bilder konzentrieren und andererseits das ganze auch gleich Multilingual auslegen.

Also, das hört ja wirklich ganz ansprechend an. Wie hast Du denn das fertig bekommen?
Ich brauche dafür vieeeeeeeeeeel mehr Speicherplatz mit meiner Verknüpfung. Wie verknüpfst Du denn das ganze? Kann ein normaler d.h. nicht Programmierfähiger Mensch das ganze erweitern und/oder für seine Bedürfnisse anpassen? Die Idee das ganze multilingual zu machen spricht natürlich auch gleich noch einen anderen (größeren) Personenkreis an. Sehr interessiert und fasziniert

Sylvia

— geändert am 10.04.2011, 17:30:21

Antworten
Gelöschter Account
  • Forum-Beiträge: 5.136

10.04.2011, 17:40:19 via Website

Hallo Sylvia,

das ist ein wirklich ganz einfach gehaltenes Progrämmchen .. (Programm wär wohl schon zuviel ..)

Es gibt ein dreispaltiges ImageView layout und jede dieser Image Views ist mit einem OnClick Handler hinterlegt, direkt im Layout.xml. (main)

Sobald man also eines der Images antippt, wird ein entsprechender, als Text hinterlegter Satz gesprochen. Hierzu bediene ich mich der in Android bereits integrierten Sprachausgabe.

Das ist jedoch in diesem nur als Beispiel gedachtem App, fest verdrahtet, also nicht variabel. Grundsätzlich wäre so etwas aber auch machbar, die Frage wäre nur wo man dann die notwendigen Bilder herbekommt um das auch verknüpfen zu können.

Beispiel des Aufrufes der Sprachausgabe:
1mTts.speak("Können Sie mir bitte sagen wieviel das hier kostet?", TextToSpeech.QUEUE_FLUSH, null);

Beispiel für die Imageverknüpfung:
1<ImageView android:layout_height="wrap_content"
2 android:layout_width="wrap_content"
3 android:id="@+id/imageView3"
4 android:src="@drawable/geld"
5 android:layout_gravity="center_horizontal"
6 android:onClick="sayIt"
7 android:paddingLeft="25px"
8 android:hapticFeedbackEnabled="true">
9 </ImageView>

Ich hab das ganze unter anderem in einer meiner Apps verwendet um je nach Ladestand des Akkus den noch verbleibenden Akku-Ladelevel sprachlich auszugeben. (Interessant bspw. für Blinde, die ja nicht sehen können ob der Akku noch ausreichend geladen ist oder nicht)

Mich hat ja nur interessiert, ob diese Methode der Sprachausgabe für den hier hinterfragten EInsatzweck nicht ausreichend wäre, quasi als Proof of Concept.

— geändert am 10.04.2011, 17:44:18

lg Voss

Antworten
Gelöschter Account
  • Forum-Beiträge: 5.136

10.04.2011, 18:12:12 via Website

Interessant könnte in diesem Zusammenhang auch die freie Symboldatenbank des Noun-Project sein ...

http://www.thenounproject.com

lg Voss

Antworten
  • Forum-Beiträge: 114

10.04.2011, 18:24:34 via Website

Ich bediene mich meistens auf einer der Seiten, die hier zusammengefasst sind

http://www.lorm.de/2008/01/02/102-quellen-fuer-kostenlose-fotos/

oder

http://www.drweb.de/magazin/800-ecommerce-icons/


Und ich glaube, ich muß mir das mal ganz genau erklären lassen, wie Du das programmiert hast. Machst Du das über ADB am Computer?
Das ist schon eine feine Sache, weil man mal ganz schnell auch eine Notfallsache herstellen kann. z.B. "Ich bin Bluter." Das kann dann schon mal lebensrettend sein.

Sylvia

Antworten
Gelöschter Account
  • Forum-Beiträge: 5.136

10.04.2011, 19:01:58 via Website

Die Programmierung erfolgt in Java mit Hilfe von Eclipse (einer Entwicklungsumgebung).

Mit diesen Bilderbibliotheken ist das so eine Sache. Will man so ein Projekt kommerziell oder auch nicht kommerziell aufziehen, so benötigt man wirklich Lizenzfreies Grafikmaterial in einer gleichbleibenden und einheitlichen Qualität. Und solche aussagekräftigen Grafiken in großer Zahl herzustellen ist wirklich nicht einfach. Normale Fotos sind da auch viel zu groß und würden viel zu viel Speicherplatz einnehmen. Da sind wirklich schon kleine Clipart Grafiken gefragt.

lg Voss

Antworten
  • Forum-Beiträge: 2.545

10.04.2011, 19:29:46 via Website

In etwa so wie ich es hier mal gemacht habe als Mini Test:

Sehr schöne Idee, TTS scheint sich ja echt weiterentwickelt zu haben, am Anfang war das für "deutsch" ja eher unbrauchbar, daher hatte ich das nie mehr angeschaut.
Die App macht übrigens gar nichts, wenn der svox nicht installiert ist, musste ich erst via Log herausfinden, das auf meinem Desire offenbar was fehlt :P

Was die Konfigurierbarkeit von außen angeht, könnte ich mir einen Ordner auf der SD vorstellen, in dem die Bilder und eine Text-Datei mit Zuordnungen (Bildname, Text) bzw. (Bildname, Ordner) hinterlegt sind; es können also weitere Ordner gleichen Aufbaus für Untermenüs enthalten sein.

Die App würde dann jeweils die Bilder eines Ordners als Menü darstellen und beim Antippen entweder den Text sprechen oder den zugeordneten Ordner öffnen.

Antworten
Gelöschter Account
  • Forum-Beiträge: 5.136

10.04.2011, 19:40:39 via Website

Jo anddev ... ich hab keine Prüfung eingebaut, ob die Engine installiert ist, sollte ja auch nur ein Proof of Concept sein. Möglicherweise hast Du die Sprachdatei nicht installiert. Das scheint dann im LogCat auf als Hinweis ... ;)

lg Voss

Antworten
  • Forum-Beiträge: 2.545

10.04.2011, 23:52:08 via Website

sollte ja auch nur ein Proof of Concept sein

Sollte auch keine Kritik sein.


Möglicherweise hast Du die Sprachdatei nicht installiert. Das scheint dann im LogCat auf als Hinweis

Yepp, gab ein paar Errors, eine kurze Google-Suche, eine Installation und dann eine recht gut verständliche Sprachausgabe.

Ist die App nach diesem Beispiel gemacht?

Antworten
Gelöschter Account
  • Forum-Beiträge: 5.136

11.04.2011, 00:48:40 via Website

Jo Anddev, aus dem Beispiel stammen Teile des Codes.


Hier gibt es auch noch ein paar Codeschnipsel zu dem Thema.

Unter anderem wird da auch eine Möglichkeit gezeigt, abzufangen ob die Engine installiert ist.

lg Voss

Antworten

Empfohlene Artikel