Warum Perceptual Computing die Zukunft ist

Perceptual Computing im Einsatz: Sensoren sind die Zukunft des PC (April 2024)

Perceptual Computing im Einsatz: Sensoren sind die Zukunft des PC (April 2024)
Warum Perceptual Computing die Zukunft ist

Inhaltsverzeichnis:

Anonim

Technologie ist zu einer Erweiterung unseres täglichen Lebens geworden. Wir führen Minicomputer in der Tasche in Form von iPhones und verlassen uns oft auf unsere Telefone, um alltägliche Aktivitäten wie das Versenden von Nachrichten, das Suchen von Wegbeschreibungen und das Bezahlen von Rechnungen zu meistern. Trotz der starken Präsenz der Technologie in unserem Leben ist die Technologie noch immer begrenzt. Insbesondere ist es auf die quantifizierbaren Aspekte unseres Lebens beschränkt. Zum Beispiel können Produktivitätsanwendungen nicht Ihre besten Zeiten für die Produktivität basierend auf Ihrer Stimmung messen oder bestimmen. In ähnlicher Weise hängt das soziale Netzwerk von Facebook von der manuellen Eingabe über eine Tastatur, Maus oder eine virtuelle Tastatur ab, um Ihre Freundschaftsrangliste zu bestimmen. Die qualitativen Aspekte unserer Existenz, die von unserer Fähigkeit abhängen, Informationen durch unsere Wahrnehmungsorgane zu identifizieren und zu verarbeiten, bleiben im menschlichen Bereich. Eine neue Form des Computings, das sogenannte Perceptual Computing, will diese Dynamik jedoch verändern.

Dieser Artikel definiert und erforscht die Verwendungen von Perceptual Computing.

Was ist perzeptives Rechnen?

Wie der Name schon sagt, bezieht sich Perceptual Computing auf Interaktionen mit Computergeräten durch Wahrnehmungsorgane wie Augen und Ohren. Zum Beispiel sehen Wahrnehmungs-Computertechnologien eine Interaktion mit Computergeräten durch die Augen vor. Zu diesem Zweck hat ein schwedisches Unternehmen bereits eine Technologie entwickelt, die es dem Gerät ermöglicht, die Augenbewegung eines Benutzers zu verfolgen, während er sich über den Bildschirm bewegt. In ähnlicher Weise verwendet Personify aus Chicago eine 3D-Kamera mit Tiefenmessung, um immersive Technologieerlebnisse zu schaffen. Derzeit beschränkt sich diese Erfahrung auf Chat-Anwendungen und Präsentationen: Laut der Website des Unternehmens können Benutzer ihre Personas auf Präsentationen projizieren. Sie können den Hintergrund auch während Chats ändern. Ähnlich wie Spielsysteme funktioniert das Wahrnehmungsrechnen über Sensoren.

Die Wurzeln des Perzeptionsrechnens liegen in einer Vielzahl von Disziplinen, die aus der Informatik hervorgegangen sind, wie künstliche Intelligenz, Verarbeitung natürlicher Sprache und Fuzzy-Logik. Zum Beispiel veröffentlichte der Vater von Fuzzy Logic - Lotfi Zadeh - eine Arbeit mit dem Titel "Fuzzy Logic: Computing With Words" (oder CWW) im Jahr 1996. Anschließend definierte er CWW als "eine Methodik, in der die Objekte der Berechnung Wörter und Propositionen aus einer natürlichen Sprache. "In seinem System würden Wörter eine Rechenmaschine innerhalb von Geräten auslösen, die die Wörter in mathematische Datensätze umwandeln würden, die von Computern erkannt werden können. Das Gerät wäre eine lernende Maschine, in der es neue Wörter lernen würde, wie es benutzt wurde. Dies ist ähnlich wie das Prinzip, das eine Vielzahl neuer Technologien untermauert, sei es Amazon's Alexa oder Apples Siri.

Intel hat mit der Entwicklung von RealSense-Kameras, die mit einer breiten Palette von Geräten, einschließlich Tablets und PCs, integriert werden, die Führungsrolle im Bereich des Wahrnehmungsrechnens übernommen.Die Kamera ist multimodal. Mit anderen Worten, es kann eine Reihe von Sinneseindrücken von der Stimme über die Vision bis zur Gesten erkennen.

Somit kann es verwendet werden, um eine Vielzahl von Aufgaben auszuführen. Zum Beispiel können Maler Freihandbilder in der Luft (innerhalb der umschriebenen Reichweite eines Bildschirms) mit ihren Händen zeichnen. Das Unternehmen hat bereits mit einigen Hardwareanbietern zusammengearbeitet, um die Kamera in ihre Geräte einzubetten, und hat einen Fonds mit einem Volumen von 100 Millionen US-Dollar geschaffen, um die Entwicklung und Förderung der Computer-Perzeptions-Technologie zu unterstützen. (Lesen Sie mehr zum Thema, hier: Von Beads zu Binary: Die Geschichte der Datenverarbeitung.)

Obwohl das Unternehmen perceptual computing mit einem anderen Namen bezeichnet, hat Apple auch den Raum mit dem neuesten iPhone 6s betreten. welche 3D-Touch-Technologie mit Drucksensoren unter dem Bildschirm bietet. Die Technologie identifiziert Benutzeraktionen basierend auf dem auf den Bildschirm ausgeübten Druck. Beispielsweise führt eine leichte Berührung zu einem "flüchtigen Blick" auf die Webseite oder den Link in Form eines Snippets. Mehr Druck induziert einen "Pop" oder einen detaillierteren Blick auf die Zielverbindung. Die Übernahme der PrimeSense-Technologie durch das Unternehmen im Jahr 2013 bedeutet, dass weitere 3D-Messtechnologie in seine zukünftigen Produkte integriert wird. (Erfahren Sie mehr über Apples Unternehmen, hier: Die Top 6 Unternehmen im Besitz von Apple .)

Warum ist Perceptual Computing radikal?

Die einfache und bahnbrechende Sache des Perceptual Computing ist, dass es nicht auf ein Gerät oder ein Protokoll beschränkt ist. Es erweitert auch die Fähigkeiten eines Geräts. Bedenken Sie Folgendes: In der Entwicklung von Personalcomputern zu Tablets zu iPhones wurden bei den Formaten der Benutzereingaben keine großen Fortschritte erzielt. Als sie zum ersten Mal auf den Markt kamen, waren der Personalcomputer und das Tablet mit einer Maus bzw. einem Stift ausgestattet. Fast vierzig Jahre nach dem Start bleiben sie bestehen (der Launch des iPad Pro hat den Stylus wieder eingeführt). Stattdessen kamen die wirklichen Fortschritte in der Technologie aus dem Nischen-Gaming-Sektor, wo Technologien wie Kinect-Sensoren die Grenzen für Spiele verschoben haben.

Die Änderung der Eingabeformate geht über die offensichtlichen Implikationen hinaus. Neben der Erweiterung der Märkte und Anwendungen für diese Geräte ermöglicht es auch eine nahtlose und veränderte Benutzererfahrung. Zum Beispiel werden Microsofts Kinect-Sensoren in der Gesundheitsbranche für eine Vielzahl von Zwecken eingesetzt, angefangen bei der Bewertung des durch Schlaganfälle verursachten Schadens bis hin zur Zerlegung und Manipulation von Röntgenstrahlen mit einer Handbewegung.

Gegenwärtig ist es schwierig, die Auswirkungen der perzeptuellen Datenverarbeitung zu quantifizieren. Dies liegt zum Teil daran, dass perceptual computing ein breiter Begriff ist, der mehrere Technologien, Spieler und Domänen umfasst. Zum Beispiel ist die 3D-Sensorik das niedrigste Ziel für das Wahrnehmungsrechnen, weil ihre Anwendungen unmittelbar sind. Schätzungen für die Marktgröße von 3D-Sensoren, der Schlüsseltechnologie für einbettbare Kameras, variieren von 3 US-Dollar. 3 Milliarden im Jahr 2020 auf 5 Dollar. 4 Milliarden im Jahr 2022. Perceptual Computing ist Teil der Internet of Things-Industrie, die voraussichtlich auf 1 $ wachsen wird.7 Billionen bis 2020. (Lesen Sie mehr zum Thema, hier: Das Internet der Dinge im Jahr 2015 )

Das Endergebnis

Wir nutzen unsere Wahrnehmungen, um eine Vielzahl von Aufgaben auszuführen. Perceptual Computing digitalisiert diese Wahrnehmungen und übersetzt sie in eine Sprache, die von Maschinen einfach verarbeitet werden kann. Mit seinen weit verbreiteten Anwendungen in verschiedenen Branchen wird Perceptual Computing uns helfen, effizient in einer zunehmend digitalen Welt zu navigieren.