Zuletzt geändert am 24. April 2012 um 13:46

Diskussion:HackffmActivitySensors

Wie wäre es, ein Raspberry oder Beagleboard mit Speech-Synth an den neuen Riesen-Fernseher zu packen und als "vollwertige AI" für den Space zu benutzen (UPDATE: habe auch noch einen alten Laptop, den ich zu diesem Zweck opfern könnte) ? Habe hier auch noch Fingerprint-Reader und RFID-Leser rumliegen die ich sponsorn würde, man könnte auch Face-Detection über eine Webcam laufen lassen, an der sich mitglieder, die lust dazu haben, im Space "einloggen" können. Zusätzlich könnte die neue "AI" dann auch den Space-3d-Drucker steuern und Aufträge entgegennehmen etc..

Nochn Update :) Das Teil könnte natürlich auch als interner GIT- / Web- / Print-Server dienen.

Tut: Hört sich nach ner netten Idee an, allerdings ist das sicher ein Projekt für sich. Was Server angeht hat Vasilis schon erste Schritte übernommen und einen Linux Server aufgesetzt. Mangels Portforwarding ist das allerdings noch nicht ganz so spaßig...

23.04: Wo sollen denn die ports geforwarded werden, und woran hängts? Steht der Server im Space ? Was für eine Maschine ist das? Projekt für sich, naja...Ich würde für die Grundfunktionalität (Web/Print/3d-Drucker-Server und Sensor-Anbindung und _eigene_ Website für die Sensoren) max. 4h rechnen, solange hat jedenfalls mein Home-Server mit Fingerprint-RFID-Reader, Webcam-Überwachung und Mediacenter gekostet. Ich erkläre mich gern bereit da mit zu helfen falls gewünscht.

Hier gibts Infos zum bisherigen Server: hackffm.intranet Wir haben z.Z. noch keinen Zugang zum Router des Vermieters, daher kein Portforwarding.

Zurück zur Seite „HackffmActivitySensors“.