Share this

Die Geschichte der Entwicklung der Mensch-Computer-Schnittstellentechnologie

2026-02-21 07:16:20 · · #1
1.1 Mensch-Computer-Interaktion (HCI) Mensch-Computer-Interaktion (HCI) bezeichnet Technologien, die einen effektiven Dialog zwischen Mensch und Computer über Eingabe- und Ausgabegeräte ermöglichen. Dazu gehört, dass Maschinen dem Menschen über Ausgabe- oder Anzeigegeräte eine Vielzahl von Informationen und Aufforderungen/Anfragen bereitstellen, dass Menschen über Eingabegeräte Informationen und Aufforderungen/Anfragen in die Maschine eingeben und dass Menschen Fragen beantworten, indem sie Informationen über Eingabegeräte in die Maschine eingeben. HCI-Technologie ist ein wichtiger Bestandteil des Designs von Benutzeroberflächen. Sie ist eng mit Disziplinen wie Kognitionswissenschaft, Ergonomie und Psychologie verwandt. 1946: Bedienoberfläche bestehend aus Kontrollleuchten und mechanischen Schaltern. 1980er Jahre: Zeichenbasierte Benutzeroberfläche bestehend aus Terminals und Tastaturen. 1990er Jahre: Grafische Benutzeroberfläche (GUI) bestehend aus verschiedenen Eingabegeräten und Rastergrafik-Anzeigegeräten; PCs, Workstations, WIMP-Oberfläche (W – Fenster, I – Symbole, M – Menü, P – Zeigegeräte), WYSIWYG. 21. Jahrhundert: Anwendung der Virtual-Reality-Technologie (VR) (Entwicklungsrichtung). 1.2 Entwicklung der Mensch-Computer-Interaktion. Die Mensch-Computer-Interaktion (HCI) bezeichnet die Interaktion zwischen Menschen und Maschinen, im Wesentlichen die Interaktion zwischen Menschen und Computern oder allgemeiner die Interaktion zwischen Menschen und „Maschinen mit Computern“. Der Einfachheit halber bezeichnen wir im Folgenden sowohl „Computer“ als auch „Maschinen mit Computern“ als Computer. Das übergeordnete Ziel der HCI-Forschung ist es, Computer so zu gestalten, dass sie Menschen dabei unterstützen, ihre Aufgaben sicherer und effizienter zu erledigen. Seit der Entwicklung des weltweit ersten Digitalrechners, des ENIAC, im Jahr 1946 hat die Computertechnologie erstaunliche Fortschritte gemacht. Dennoch bleibt ein Computer ein Werkzeug – ein hochentwickeltes Werkzeug, eine Erweiterung des menschlichen Gehirns, der Hände und Augen. Daher unterliegt er weiterhin der menschlichen Kontrolle, Bedienung und Steuerung. Viele von Computern ausgeführte Aufgaben erfordern die Zusammenarbeit zwischen Mensch und Computer. In solchen Fällen ist die Kommunikation zwischen Mensch und Computer notwendig – die sogenannte Mensch-Computer-Interaktion. Die Hardware- und Softwaresysteme, die diese Kommunikation ermöglichen, werden als interaktive Systeme bezeichnet. Typischerweise umfassen interaktive Systeme Computer, die Nutzern über Ausgabegeräte eine Fülle von Informationen und Hinweisen bereitstellen, während Nutzer über Eingabegeräte Informationen eingeben, Fragen beantworten usw. Von frühen interaktiven Computergeräten wie Bedienfeldschaltern, Kontrollleuchten und Lochstreifen haben sich Mensch-Computer-Schnittstellen zu den heutigen multisensorischen interaktiven Geräten mit Blickverfolgung, Spracherkennung, Gestensteuerung und sensorischem Feedback entwickelt. Die Entwicklung von Mensch-Computer-Schnittstellen lässt sich in drei Phasen unterteilen: manuelle Bedienung, Befehlssprachen und grafische Benutzeroberflächen (GUIs). Die Entwicklung der Mensch-Computer-Interaktion kann grob in vier Phasen unterteilt werden: die Anfangsphase (1929–1970). 1959 veröffentlichte der amerikanische Wissenschaftler B. Shackel eine Arbeit zur Mensch-Computer-Interaktion, die als erste Veröffentlichung zu diesem Thema gilt und sich mit dem Design von Computerkonsolen befasste. 1960 prägte J.C.K. Liklider erstmals den Begriff der „engen Mensch-Computer-Symbiose“, der als wegweisende Sichtweise der Mensch-Computer-Interaktionsforschung gilt. 1969 fand an der Universität Cambridge in Großbritannien die erste Internationale Konferenz über Mensch-Computer-Systeme statt. Im selben Jahr wurde die erste Fachzeitschrift, das „International Journal of Human-Computer Studies (IJMMS)“, gegründet. Das Jahr 1929 markiert somit einen Meilenstein in der Geschichte der Mensch-Computer-Interaktionsforschung. Die Gründungsphase (1970–1979) war von zwei wichtigen Ereignissen geprägt: (1) Zwischen 1970 und 1973 erschienen vier Monografien zur Mensch-Computer-Interaktion mit Bezug zu Computern, die die Entwicklung von Mensch-Computer-Schnittstellen maßgeblich beeinflussten. (2) 1970 wurden zwei Forschungszentren für Mensch-Computer-Interaktion gegründet: das HUSAT Research Center an der Loughborough University in Großbritannien und das Palo Alto Research Center der Xerox Corporation in den USA. Entwicklungsphase (1980–1995): Anfang der 1980er-Jahre veröffentlichte die wissenschaftliche Gemeinschaft sechs Monografien, die die neuesten Forschungsergebnisse zur Mensch-Computer-Interaktion zusammenfassten. Die Disziplin der Mensch-Computer-Interaktion entwickelte allmählich ein eigenes theoretisches System und einen eigenen praktischen Rahmen. Theoretisch grenzte sie sich von der Mensch-Computer-Technik ab und legte größeren Wert auf die theoretischen Grundlagen der Kognitionspsychologie, der Verhaltenswissenschaften und bestimmter geisteswissenschaftlicher Disziplinen der Soziologie. Praktisch erweiterte sie sich von der Mensch-Computer-Schnittstelle (HCI) hin zur Rückkopplung und Interaktion zwischen Computer und Mensch. Der Begriff „Mensch-Computer-Schnittstelle“ wurde durch „Mensch-Computer-Interaktion“ ersetzt. Auch das „I“ in HCI wandelte sich von „Schnittstelle“ zu „Interaktion“. Die Verbesserungsphase (1996–) Seit den späten 1990er-Jahren, mit der rasanten Entwicklung und Verbreitung von Hochleistungsprozessoren, Multimedia- und Internettechnologien, hat sich der Forschungsschwerpunkt der Mensch-Computer-Interaktion hin zu intelligenter Interaktion, multimodaler (mehrkanaliger) Multimedia-Interaktion, virtueller Interaktion und kollaborativer Mensch-Computer-Interaktion verlagert – kurzum, hin zu nutzerzentrierter Mensch-Computer-Interaktionstechnologie. Die Interaktionsmethode – der Mensch-Computer-Interaktionsprozess – ist ein Eingabe- und Ausgabeprozess. Der Mensch gibt über die Mensch-Computer-Schnittstelle Anweisungen an den Computer ein, der diese verarbeitet und die Ergebnisse dem Nutzer präsentiert. Die Eingabe- und Ausgabeformen zwischen Mensch und Computer sind vielfältig, daher sind auch die Interaktionsformen vielfältig, darunter Dateninteraktion, Bildinteraktion, Sprachinteraktion, Verhaltensinteraktion usw. 1.3 Das Verhältnis zwischen Mensch-Computer-Interaktion und Mensch-Computer-Schnittstelle Mensch-Computer-Interaktion bezeichnet die Interaktion zwischen Menschen und Maschinen, im Wesentlichen die Interaktion zwischen Menschen und Computern. Oder, aus einer breiteren Perspektive: Mensch-Computer-Interaktion bezeichnet die Interaktion zwischen Menschen und „Maschinen, die Computer enthalten“. Die Mensch-Computer-Interaktion (HCI) umfasst die wechselseitige Kommunikation zwischen dem Benutzer und dem Computersystem. Diese Kommunikation erfolgt durch bestimmte Symbole und Aktionen wie Tastatureingaben, Mausbewegungen und die Anzeige von Symbolen/Grafiken auf dem Bildschirm. Dieser Prozess beinhaltet mehrere Teilprozesse: die Identifizierung des Interaktionsobjekts, das Verständnis des Interaktionsobjekts, das Erfassen seines Zustands, die Informationsanpassung und das Feedback. Die Mensch-Computer-Schnittstelle (HCI) bezeichnet das Kommunikationsmedium zwischen dem Benutzer und dem Computersystem und umfasst die unterstützende Software und Hardware für die wechselseitige Informationsinteraktion zwischen Mensch und Maschine. Hierbei ist „Schnittstelle“ als Kommunikationsmedium definiert, dessen materielle Manifestation die zugehörige unterstützende Software und Hardware ist, beispielsweise ein Grafikdisplay mit Maus. Interaktion beschreibt die Beziehung bzw. den Zustand der Interaktion zwischen Mensch und Maschine/Umgebung. Die Schnittstelle ist der spezifische Ausdruck dieser Interaktionsbeziehung. Interaktion ist die kontextbezogene Darstellung der Informationsübertragung, während die Schnittstelle das Mittel zur Realisierung der Interaktion darstellt. Im Teilsystem Interaktionsdesign ist die Interaktion der Inhalt/die Seele, die Schnittstelle hingegen die Form/der Körper. Im übergeordneten Produktentwicklungssystem dienen Interaktion und Schnittstelle jedoch lediglich der Lösung der Mensch-Computer-Beziehung und sind nicht das eigentliche Ziel, nämlich die Erfüllung menschlicher Bedürfnisse. Interaktionsdesign ist dem Produktsystem untergeordnet und leistet einen wichtigen Beitrag zu einem erfolgreichen Produktdesign. Aus systemtheoretischer Sicht ist Interaktionsdesign ein dem Produktentwicklungssystem untergeordnetes Teilsystem. 1.4 Anwendungen von Bedienerschnittstellen (HMIs) in der industriellen Automatisierung Eine Mensch-Maschine- Schnittstelle (HMI) ist ein Interaktionsmedium zwischen Mensch und Maschine. Sie dient dem Informationsaustausch zwischen Nutzern und Maschinen, einschließlich Eingabe und Ausgabe. Eine gute HMI ist ästhetisch ansprechend, leicht verständlich, einfach zu bedienen und bietet hilfreiche Funktionen. Sie sorgt für ein positives Nutzererlebnis, steigert das Interesse und verbessert somit die Effizienz. Im engeren Sinne ist die Mensch-Computer-Interaktion (HCI) einer der jüngsten Zweige der Informatik. Sie ist ein Produkt der Kombination von Informatik und Kognitionspsychologie und umfasst viele gängige Computertechnologien wie künstliche Intelligenz, natürliche Sprachverarbeitung und Multimediasysteme. Sie integriert außerdem Forschungsergebnisse aus Linguistik, Industriedesign, Ergonomie und Soziologie und ist somit eine interdisziplinäre, randständige und umfassende Disziplin. Mit der stetigen Verbreitung von Computeranwendungen sind Computer zu einem alltäglichen Gebrauchsgegenstand geworden, der so tragbar ist, dass er in der Hosentasche mitgeführt werden kann und uns bei der Bewältigung von Büro- und Lebensaufgaben unterstützt. Natürliche Mensch-Computer-Schnittstellen und harmonische Mensch-Computer-Umgebungen rücken in der Informationswelt, insbesondere in einem hart umkämpften Markt, zunehmend in den Fokus. Eine benutzerfreundliche Oberfläche ist eine entscheidende Eigenschaft für Computer oder Geräte mit integrierten Computern, um Kunden zu gewinnen. Softwareentwickler und Computernutzer benötigen daher immer dringender Mensch-Computer-Schnittstellen, die den Prinzipien „Einfachheit, Natürlichkeit, Benutzerfreundlichkeit und Konsistenz“ entsprechen. Die Entwicklung von Mensch-Computer-Schnittstellen lässt sich wie folgt kategorisieren: Manuelle Bedienung: Frühe Computer nutzten Befehle für eine nahtlose Kommunikation; DOS und andere Betriebssysteme verwendeten grafische Benutzeroberflächen; die Windows-Serie verwendet Mensch-Computer-Schnittstellen. Die Entwicklung von Mensch-Computer-Schnittstellen macht 40 bis 60 % der gesamten Systementwicklung aus. Multimediale Mensch-Computer-Interaktionsmethoden: Eingabe: Tastatureingabe: Traditionelle Methode; Mauseingabe: Wichtige Eingabemethode in grafischen Benutzeroberflächen; Handschrifteingabe: Handschrifterkennung chinesischer Schriftzeichen, Tablet-Computer; Spracheingabe; Touchscreen-Eingabe: Anwendbar in CAD/CAM-Systemen; Scannende Eingabe: Barcodes, Scanner, optische Lesegeräte; 3D-Eingabe: Datenhandschuhe, 3D-Mäuse, Drehmomentkugeln usw.; Visuelle Eingabe: Kameraausrüstung. Visuelle Ausgabe von Robotern: ein wichtiges Werkzeug. Tonausgabe: Schallwellenausgabe: eines der Standardausgabegeräte. 3D-Ausgabe: Geräte zur Erzeugung von 3D-Ausgabe umfassen Projektionsdisplays, Helmdisplays, Fernsehbrillen usw. Anwendungsbereiche der multimedialen Mensch-Computer-Interaktionstechnologie: Software-Schnittstellendesign: Design von Multimedia-Ein- und Ausgabegeräten für die natürliche Sprachverarbeitung; Computergestütztes Design (CAD)/Computergestützte Fertigung (CAM). Die heutigen Bedienoberflächensysteme sind komplexer denn je und ermöglichen eine präzisere Überwachung und Steuerung der überwachten Prozesse. Die Funktionen reichen von einem SPS-Terminal bis hin zu einer leistungsstarken Verarbeitungsplattform. In ihrer Basisform kann die Schnittstelle Daten verarbeiten und dem Bediener Informationen in beliebiger Form – von Text bis hin zu anschaulichen Grafiken – übermitteln. Dank des technologischen Fortschritts nimmt auch der Anwendungsbereich stetig zu. Obwohl die Schnittstelle kontinuierlich weiterentwickelt wird, um den wachsenden Anforderungen gerecht zu werden, steigen die Ansprüche der Anwender kontinuierlich. 1.5 Überblick über die Entwicklung von Mensch-Maschine-Schnittstellen in der industriellen Automatisierung: (I) Kompaktes Design: Der Touch-Tablet-Computer TPC-1260 von Advantech Automation bietet einen leistungsstarken, energieeffizienten Prozessor in einem lüfterlosen, kompakten Design. Das Gerät verfügt über ein 12,1-Zoll-SVGA-TFT-LCD-Display, einen robusten Touchscreen, einen Freiachsenspeicher und einen Transmeta Crusoe 5400 Prozessor. Es bietet 128 MB On-Board-DRAM und einen CompactFlash-Speicher. Die Komponente unterstützt Windows XP/CE und verfügt über eine NEMA 4/IPC 65-konforme Frontplatte aus Aluminium-Magnesium, wodurch sie sich für raue Umgebungen eignet. Für Anwendungen, bei denen die Achsenfreiheit nicht entscheidend ist, kann ein schmaleres Gehäuse verwendet werden. Der leistungsstarke Industriecomputer webLink21 von Ann Arbor Technologies verfügt über ein großes 21-Zoll-UXGA-Display. Der robuste analoge Touchscreen ist mit einer standardmäßigen, nach NEMA 4 geschützten Aluminium-Frontblende ausgestattet. Zu den wichtigsten Merkmalen gehören: ein 1,7-GHz-Pentium-4-Prozessor, DDR-RAM (erweiterbar auf 1 GB), ein integrierter 100/10-BaseT-Ethernet-Anschluss, ein CD-ROM-Laufwerk, vier USB-Anschlüsse und sechs zusätzliche offene PCI-Steckplätze. Erweiterter Arbeitsspeicher, DVD-Laufwerk, zusätzliche USB-Anschlüsse und Edelstahlblenden nach NEMA 4X sind optional erhältlich. (II) Umfassende Akzeptanz: Die Touchscreens der QuickPanel-Serie von GE Fanuc mit der Software Cimplicity Machine Editor und dem Betriebssystem Microsoft Windows CE vereinen schnelle Bedienfeldsteuerung und klare Bilddarstellung auf einer einzigen Plattform. Diese Integration sorgt für höhere Produktivität und Kosteneffizienz. Der Touchscreen bietet flexible und skalierbare Leistung auf einer Hardwareplattform, die in die Automatisierungssoftware integriert ist. Der Cimplicity Machine Editor – ein offenes, integriertes Softwarepaket für die Maschinenprogrammierung, -überwachung, Datenerfassung und Fehlererkennung – ist die Grundlage für die Entwicklung von Anwendungssoftware. (III) Transparenter Zugriff: Die Advanced Operating Interface (AUI) von Omron Electronics ermöglicht den Zugriff auf Informationen der SPS in drei entfernten Netzwerken auf einem einzigen Bildschirm. Informationen können aus einem Ethernet-Netzwerk, einem ControllerLink-Netzwerk (Omrons proprietärem Netzwerk) und gleichzeitig über zwei serielle Schnittstellen hochgeladen werden. Das HMI verfügt über ein einzigartiges 4-Kanal-Videoeingangsmodul zur Anzeige von Kamerabildern von Bildverarbeitungssensoren. Die Konnektivität bietet Benutzern umfassenden Netzwerkzugriff auf Daten, und die Leiterdiagramm-Überwachungstools können SPS-Leiterdiagrammprogramme über ein einziges Systemmenü überwachen, ohne dass ein Laptop oder PC erforderlich ist. Die Schutzart entspricht NEMA 4. (IV) Erweiterte Touchpanels: Die EXTouch-Serie von AutomationDirect umfasst Touchpanels mit 8, 10 und 15 Zoll Länge. Die länglichen Panels werden aus FDA-konformen Formteilen gefertigt und sind mit 1/4-Zoll-O-Ringen (FDA-konform) ausgestattet. Die Module verfügen typischerweise über einen integrierten Datenpfad, zusätzliche Empfangsfunktionen und eine Ethernet-Auswahlkarte. Die 10- und 15-Zoll-Panels unterstützen Modbus Plus, DeviceNet, Profibus oder Ethernet I/O. Der Markteinführungspreis liegt bei 419 US-Dollar; die Panels sind in Farbe oder Schwarzweiß erhältlich. (V) Programmierbare Mensch-Maschine-Schnittstellen: Die berührungsprogrammierbaren Bedienoberflächen der GP2x01-Serie von Xycom Automation sind für die meisten Umgebungen geeignet. Das Gerät verfügt über ein Aluminiumgehäuse, Schutzart NEMA 4x, Zertifizierung für explosionsgefährdete Bereiche der Klasse 1, Div. 2 sowie eine CompactFlash-Karte für die Datenprotokollierung und den direkten Zugriff auf die Konfigurationssoftware. Es unterstützt eine Vielzahl gängiger serieller Kommunikationstreiber. Optionale Kommunikationserweiterungsmodule bieten Netzwerkschnittstellen für den Anschluss an DeviceNet, Profibus, Modbus Plus, AB Data Path Plus, AB Remote I/O und zusätzlich an Standard-RS-232/RS-485-Netzwerke. (VI) Textbasierte HMI Telemecanique Magelis XBT-N Bedienoberfläche von Square D/Schneider Electric Die Telemecanique Magelis XBT-N Bedienoberfläche von Square D/Schneider Electric ist für die einfache und reproduzierbare Maschinenbedienung konzipiert. Mit der Schutzart NEMA 4X für den Außeneinsatz und der Schutzart UL Klasse 1, Div. 2 für explosionsgefährdete Bereiche ist diese lineare, miniaturisierte textbasierte HMI einfach zu installieren und zu programmieren. Vier Spezifikationen bieten hohe Funktionalität und eine schnelle Reaktionszeit. Die Reaktionszeit für Bedienereingaben über die Tastatur oder Anfragen an die SPS beträgt weniger als 30 ms. Das Bedienfeld lässt sich über Software-Einstellungstasten anpassen, und offene Standards gewährleisten die Kompatibilität mit Komponenten von Schneider Electric und anderen Drittanbietern. 1.6 Bedienoberflächen / Mensch-Maschine-Schnittstelle und ihr Bezug zur Ergonomie Entspricht die Benutzeroberfläche ergonomischen Prinzipien? Verursacht Ihr Bedienterminal Schmerzen? Ich meine damit nicht bloße Enttäuschung und Frustration aufgrund von Funktionsstörungen. Ich meine echte, nachvollziehbare Schmerzen, wie bei jedem herkömmlichen Computerterminal. Bei der Nutzung von Mensch-Maschine-Schnittstellen (HMIs) können gesundheitliche und sicherheitsrelevante Probleme auftreten. Im Allgemeinen wird ergonomisches Arbeiten mit HMIs von Ingenieuren nicht als erstes berücksichtigt. Die Vernachlässigung ergonomischer Prinzipien führt jedoch zu erhöhten Betriebskosten und kann zudem Augenbelastung, Handgelenksbeschwerden und Verstauchungen verursachen. Was ist Ergonomie? Es gibt viele Definitionen, aber im Kern handelt es sich um eine strenge Wissenschaft. Die Microsoft Encarta-Enzyklopädie definiert Ergonomie als: eine Wissenschaft, die sich mit der Gestaltung von Maschinen und Systemen befasst, um Sicherheit, Komfort und Effizienz für die Anwender zu maximieren. Das Board of Certification in Professional Ergonomics (BCPE) bezeichnet dies als „Wissen über eine Reihe von Aspekten, die bei der Gestaltung zu berücksichtigen sind, einschließlich menschlicher Fähigkeiten, Grenzen und Eigenschaften“. Unabhängig von der Definition spielt Ergonomie eine entscheidende Rolle bei jeder HMI-Anwendung und beeinflusst die Effektivität der Produktnutzung durch die Anwender. Vor allem aber befasst sie sich mit Verletzungen, die durch die Nichteinhaltung ergonomischer Prinzipien entstehen. Darüber hinaus können arbeitsbedingte ergonomische Verletzungen die Ursache für kostspielige Ansprüche von Mitarbeitern und Arbeitsausfälle sein. Ergonomie kann in ihren verschiedenen Ausprägungen HMI-Produkte auf vielfältige Weise vor ergonomische Herausforderungen stellen, darunter beispielsweise Beschwerden des Bewegungsapparates und Sehprobleme. Bill Martin, Produktmanager für PanelView Plus 700/1500 bei Rockwell Automation, erklärt: „Bei HMI-Geräten sind zwei ergonomische Aspekte besonders wichtig: blendfreie Bildschirme und benutzerfreundliche Tasten. Komponenten wie blendfreie Abdeckungen reduzieren die Augenbelastung und lassen sich bei Verschmutzung oder Staub einfach entfernen oder austauschen. Anwender, die blendfreie Abdeckungen verwenden, schützen nicht nur ihre Augen, sondern profitieren auch von deren Komfort und der einfachen Wartung.“ Er fährt fort: „Viele Anwender nutzen Touchscreens, weil sie einfacher zu bedienen sind. Wer jedoch Tasten bevorzugt, tut dies, weil er beim Drücken ein hörbares und fühlbares Feedback erhält, was die mentale und physische Belastung reduziert. Die Bediener müssen nicht wiederholt auf Tasten drücken und sich keine Gedanken darüber machen, ob sie einen Kontakt hergestellt haben.“ Dave Kaley, Mobile bei Rockwell Automation, sagte: Ein LabVIEW-Produktmanager beobachtete Handheld-HMIs und kommentierte: „Da sich das Terminal in der Hand befindet, ist es wichtig, dass es gut in der Hand liegt und einfach zu bedienen ist. Ein tragbares Terminal muss beispielsweise sowohl für Links- als auch für Rechtshänder komfortabel und ergonomisch gestaltet sein.“ Kaley schlug vor: „Die Hand, die das Terminal hält, sollte sich in einer natürlichen, entspannten Position befinden und nicht in einer unbequemen, angewinkelten oder verkrampften Haltung, die zu Handgelenksverstauchungen führen könnte.“ Norma Dorst, LabVIEW-Plattformmanagerin bei National Instruments, wies darauf hin: „Ein oft vernachlässigter Aspekt der Ergonomie ist die Einrichtung von Alarmen. Dies ist Teil der Ergonomie und verdient ausreichende Aufmerksamkeit. Nicht derselbe Alarm kann für jede Störung verwendet werden. Der Ton muss den Bediener warnen, aber nicht so laut, dass er seine Reaktionszeit beeinträchtigt. Viele HMIs geben zu viele Impuls- und Blinksignale aus, was ergonomisch nicht sinnvoll ist.“ Der Wendetipp: Bei der Auswahl und dem Design eines HMI-Systems sollten Sie folgende ergonomische Faktoren berücksichtigen: ■ Bewerten Sie bei der Auswahl die ergonomischen Eigenschaften und die Funktionalität des gewählten HMI-Produkts. Ist der Bildschirm lichtbeständig? Ist er einfach zu bedienen? Ist er ergonomisch gestaltet? ■ Die Funktionalität eines HMI-Produkts ähnelt der eines Computers. Beachten Sie daher die gleichen Warnhinweise und Einschränkungen. Vermeiden Sie sich wiederholende Aktionen. HMIs sind flexibel anpassbar und können so unterschiedlichen Anforderungen gerecht werden. ■ Nehmen Sie sich vor der Installation eines neuen Systems Zeit, um ergonomische Konzepte und Prinzipien zu verstehen. Eine ergonomisch gestaltete, intelligente Bedienung kann die Arbeitseffizienz steigern und Arbeitsausfälle, Verletzungen und damit verbundene Ansprüche von Mitarbeitern reduzieren.
Read next

Verwenden Sie eine SPS, um eine Steuermaschine für die Stammkoordinationssignale zu bauen.

Zusammenfassung: Hauptstreckensteuerungssysteme zeichnen sich durch geringe Kosten und kurze Bauzeiten aus. Der Einsatz ...

Articles 2026-02-20