Ergonomics of human-system interaction — Part 910: Framework for tactile and haptic interaction

ISO 9241-910:2011 provides a framework for understanding and communicating various aspects of tactile/haptic interaction. It defines terms, describes structures and models, and gives explanations related to the other parts of the ISO 9241 "900" subseries. It also provides guidance on how various forms of interaction can be applied to a variety of user tasks. It is applicable to all types of interactive systems making use of tactile/haptic devices and interactions. It does not address purely kinaesthetic interactions, such as gestures, although it might be useful for understanding such interactions.

Ergonomie de l'interaction homme-système — Partie 910: Cadre pour les interactions tactiles et haptiques

L'ISO 9241-910:2011 fournit un cadre permettant de comprendre et d'échanger sur différents aspects de l'interaction tactile/haptique. Elle définit des termes, décrit des structures et des modèles, et donne des explications en rapport avec les autres parties de la série de normes «900» de l'ISO 9241. Elle donne également des lignes directrices sur la façon dont les différentes formes d'interaction peuvent être appliquées aux diverses tâches de l'utilisateur. Elle est applicable à tous les types de systèmes interactifs utilisant des dispositifs et interactions tactiles/haptiques. L'ISO 9241-910:2011 ne traite pas des interactions purement kinesthésiques, tels que les gestes, bien qu'elle puisse être utile pour de telles interactions.

General Information

Status
Published
Publication Date
30-Jun-2011
Current Stage
9093 - International Standard confirmed
Start Date
30-Jun-2022
Completion Date
13-Dec-2025
Ref Project
Standard
ISO 9241-910:2011 - Ergonomics of human-system interaction
English language
55 pages
sale 15% off
Preview
sale 15% off
Preview
Standard
ISO 9241-910:2011 - Ergonomie de l'interaction homme-systeme
French language
57 pages
sale 15% off
Preview
sale 15% off
Preview

Standards Content (Sample)


INTERNATIONAL ISO
STANDARD 9241-910
First edition
2011-07-15
Ergonomics of human-system
interaction —
Part 910:
Framework for tactile and haptic
interaction
Ergonomie de l'interaction homme-système —
Partie 910: Cadre pour les interactions tactiles et haptiques

Reference number
©
ISO 2011
©  ISO 2011
All rights reserved. Unless otherwise specified, no part of this publication may be reproduced or utilized in any form or by any means,
electronic or mechanical, including photocopying and microfilm, without permission in writing from either ISO at the address below or
ISO's member body in the country of the requester.
ISO copyright office
Case postale 56 • CH-1211 Geneva 20
Tel. + 41 22 749 01 11
Fax + 41 22 749 09 47
E-mail copyright@iso.org
Web www.iso.org
Published in Switzerland
ii © ISO 2011 – All rights reserved

Contents Page
Foreword .v
Introduction.vii
1 Scope.1
2 Terms and definitions .1
3 Introduction to haptics.4
4 Human haptic exploration .5
4.1 Importance of the haptic sense .5
4.2 Haptics and vision.5
4.3 Manual exploration of objects.6
4.4 Training in exploratory procedures.6
4.5 The problem of getting an overview of a scene with haptics .7
4.6 Minimum physical stimulation: absolute thresholds .7
4.7 Minimum differences needed for perception.7
4.8 Perception of geometric properties of objects.7
4.9 Perception of weight .7
4.10 Perception of material properties .8
4.11 Number and size of contact surfaces in tactile/haptic devices.8
4.12 Summary .8
5 When to use tactile/haptic interactions.9
5.1 General .9
5.2 Accessibility.9
5.3 Desktop interactions .10
5.4 Mobile interactions.10
5.5 Robotics .10
5.6 Medical.11
5.7 Gaming .11
5.8 Art and creativity .12
5.9 Multimodal applications and simulators.12
6 Designing tactile/haptic interactions.13
6.1 Design guidelines for tactile/haptic interaction .13
6.2 Designing tactile/haptic space.14
6.3 Addressability and resolution in tactile/haptic interaction.15
7 User-initiated interactive task primitives .17
7.1 General .17
7.2 Searching .17
7.3 Overviewing .17
7.4 Navigating .18
7.5 Targeting .18
7.6 Selection.18
7.7 Manipulation .19
8 Tactile/haptic interaction elements .20
8.1 General .20
8.2 Tactile/haptic functional effects.20
8.3 Tactile/haptic properties of objects.21
8.4 Control elements .23
8.5 Using multi-point-contact interfaces.23
8.6 Combining elements and effects .24
8.7 Distinguishability.24
9 The range of tactile/haptic interface devices.24
9.1 General.24
9.2 Selection criteria.24
Annex A (informative) Tactile devices.35
Annex B (informative) Tactile/haptic devices that provide force feedback.39
Annex C (informative) Physiology of haptics.44
Bibliography .50

iv © ISO 2011 – All rights reserved

Foreword
ISO (the International Organization for Standardization) is a worldwide federation of national standards bodies
(ISO member bodies). The work of preparing International Standards is normally carried out through ISO
technical committees. Each member body interested in a subject for which a technical committee has been
established has the right to be represented on that committee. International organizations, governmental and
non-governmental, in liaison with ISO, also take part in the work. ISO collaborates closely with the
International Electrotechnical Commission (IEC) on all matters of electrotechnical standardization.
International Standards are drafted in accordance with the rules given in the ISO/IEC Directives, Part 2.
The main task of technical committees is to prepare International Standards. Draft International Standards
adopted by the technical committees are circulated to the member bodies for voting. Publication as an
International Standard requires approval by at least 75 % of the member bodies casting a vote.
Attention is drawn to the possibility that some of the elements of this document may be the subject of patent
rights. ISO shall not be held responsible for identifying any or all such patent rights.
ISO 9241-910 was prepared by Technical Committee ISO/TC 159, Ergonomics, Subcommittee SC 4,
Ergonomics of human-system interaction.
ISO 9241 consists of the following parts, under the general title Ergonomic requirements for office work with
visual display terminals (VDTs):
⎯ Part 1: General introduction
⎯ Part 2: Guidance on task requirements
⎯ Part 4: Keyboard requirements
⎯ Part 5: Workstation layout and postural requirements
⎯ Part 6: Guidance on the work environment
⎯ Part 9: Requirements for non-keyboard input devices
⎯ Part 11: Guidance on usability
⎯ Part 12: Presentation of information
⎯ Part 13: User guidance
⎯ Part 14: Menu dialogues
⎯ Part 15: Command dialogues
⎯ Part 16: Direct manipulation dialogues
⎯ Part 17: Form filling dialogues
ISO 9241 also consists of the following parts, under the general title Ergonomics of human-system interaction:
⎯ Part 20: Accessibility guidelines for information/communication technology (ICT) equipment and services
⎯ Part 100: Introduction to standards related to software ergonomics [Technical Report]
⎯ Part 110: Dialogue principles
⎯ Part 129: Guidance on software individualization
⎯ Part 143: Forms
⎯ Part 151: Guidance on World Wide Web user interfaces
⎯ Part 171: Guidance on software accessibility
⎯ Part 210: Human-centred design for interactive systems
⎯ Part 300: Introduction to electronic visual display requirements
⎯ Part 302: Terminology for electronic visual displays
⎯ Part 303: Requirements for electronic visual displays
⎯ Part 304: User performance test methods for electronic visual displays
⎯ Part 305: Optical laboratory test methods for electronic visual displays
⎯ Part 306: Field assessment methods for electronic visual displays
⎯ Part 307: Analysis and compliance test methods for electronic visual displays
⎯ Part 308: Surface-conduction electron-emitter displays (SED) [Technical Report]
⎯ Part 309: Organic light-emitting diode (OLED) displays [Technical Report]
⎯ Part 310: Visibility, aesthetics and ergonomics of pixel defects [Technical Report]
⎯ Part 400: Principles and requirements for physical input devices
⎯ Part 410: Design criteria for physical input devices
⎯ Part 411: Evaluation methods for the design of physical input devices [Technical Specifiction]
⎯ Part 420: Selection of physical input devices
⎯ Part 910: Framework for tactile and haptic interaction
⎯ Part 920: Guidance on tactile and haptic interactions
The following parts are under preparation:
⎯ Part 154: Interactive voice response (IVR) applications
Human-centred design and evaluation methods, optical characteristics of autostereoscopic displays, and
requirements, analysis and compliance test methods for the reduction of photosensitive seizures are to form
the subjects of future parts 230, 331 and 391.

vi © ISO 2011 – All rights reserved

Introduction
Tactile and haptic interactions are becoming increasingly important as candidate interaction modalities in
computer systems such as special-purpose computing environments (e.g. simulation) and assistive
technologies.
While considerable research exists, it involves a wide diversity of terms, meanings of terms, viewpoints,
software and hardware objects, attributes and interactions. This diversity can lead to serious ergonomic
difficulties for both developers and users of tactile/haptic interactions.
This part of ISO 9241 provides a common set of terms, definitions and descriptions for the various concepts
central to the design and use of tactile/haptic interactions. It includes basic guidance (including references to
related standards) in the design of tactile/haptic interactions. It also provides an overview of the range of
tactile/haptic applications, objects, attributes and interactions.

INTERNATIONAL STANDARD ISO 9241-910:2011(E)

Ergonomics of human-system interaction —
Part 910:
Framework for tactile and haptic interaction
1 Scope
This part of ISO 9241 provides a framework for understanding and communicating various aspects of
tactile/haptic interaction. It defines terms, describes structures and models, and gives explanations related to
the other parts of the ISO 9241 “900” subseries. It also provides guidance on how various forms of interaction
can be applied to a variety of user tasks.
It is applicable to all types of interactive systems making use of tactile/haptic devices and interactions.
It does not address purely kinaesthetic interactions, such as gestures, although it might be useful for
understanding such interactions.
2 Terms and definitions
For the purposes of this document, the following terms and definitions apply.
2.1
haptics, noun
sensory and/or motor activity based in the skin, muscles, joints and tendons
NOTE Haptics consists of two parts: touch and kinaesthesis.
2.2
haptic, adj
appertaining to haptics
NOTE While there is no difference between haptic and tactile in most dictionary definitions, in the area of haptics,
researchers and developers use haptic to include all haptic sensations, while tactile is limited to mechanical stimulation of
the skin. In ISO 9241, the word haptic covers all touch sensations and tactile is used in a more specific manner. Also, both
terms can be used together to assist in searches.
2.3
touch
sense based on receptors in the skin
NOTE Cutaneous receptors are used for the perception of touch.
2.4
cutaneous
belonging to the skin
NOTE Cutaneous receptors respond to mechanical stimulation and temperature changes.
2.5
tactile
appertaining to touch
2.6
vibrotactile
vibration-based stimulation of the skin
EXAMPLE A cellular phone uses vibrotactile stimulation to alert the user.
2.7
kinaesthesis, noun
sense and motor activity based in the muscles, joints and tendons
NOTE 1 Kinaesthesis includes both input and output.
NOTE 2 Receptors in the muscles, joints and tendons are used for the perception of kinaesthesis.
NOTE 3 Muscles, tendons and joints are used for motor activity.
2.8
kinaesthetic, adj
appertaining to kinaesthesis
NOTE 1 Types of kinaesthetic sensation arise from force, movement, position, displacement and joint angle.
NOTE 2 Types of kinaesthetic actions include movement, exertion of force and torque, and achievement of position,
displacement and joint angle.
NOTE 3 Proprioception refers to the sense of one's own body position and movement. This term is often used
interchangeably with kinaesthesis, although the latter is concerned more with motion. The sense of balance, for example,
might fall more under proprioception than kinaesthesis.
2.9
force feedback
force presented to and detected by a user
NOTE Although this does not necessarily involve feedback, the term “force feedback” is commonly used in this
context.
2.10
perceptual illusion
perception that does not correspond to a physical measurement of the stimulus source
2.11
sensory adaptation
change over time in the responsiveness of the sensory system to a constant stimulus
2.12
(tactile/haptic) spatial masking
effect that occurs when a distracter stimulus, which is close to the target stimulus, degrades the perception of
the target
2.13
(tactile/haptic) temporal masking
effect that occurs when a distracter stimulus, which is presented immediately preceding or following a target
stimulus, degrades the perception of the target
2 © ISO 2011 – All rights reserved

2.14
tactile/haptic object
component of an interactive system that a user can interact with haptically
2.15
(tactile/haptic) user interface element
entity of a user interface that is presented in a tactile/haptic form
2.16
(tactile/haptic) task primitive
fundamental action of a user for carrying out the tasks for which the device is designed
2.17
tactile label
label of a user interface element that is presented in the tactile/haptic modality
2.18
tactile map
map that is presented in the tactile/haptic modality with input functions
NOTE 1 The input functions include finger touching, lifting off, or moving across the map for producing position and
selection.
NOTE 2 Tactile maps are often used to help blind people navigate.
2.19
stiffness
hardness
elasticity
haptic response to interactions involving force normal to a virtual object's surface
NOTE 1 “Stiffness” is often known as “hardness” when applied to rigid material.
NOTE 2 “Stiffness” is often known as “elasticity” when applied to soft material.
NOTE 3 Maximum stiffness is the highest equivalent spring constant of a virtual surface that can be provided by the
device without instability.
2.20
burst
intentionally short tactile/haptic stimulation
NOTE A burst typically lasts between 10 ms and 1 s.
2.21
probe
object in a virtual space that is under the control of a tactile/haptic device
2.22
spatial resolution
degree to which the physical output from a user can be utilized by the device
2.23
addressability
ability to address a specific point or set of points in a workspace
3 Introduction to haptics
The science of haptics and the creation of tactile/haptic devices depend on knowledge of the human body,
especially on its capability to sense both touch to the skin and kinaesthetic activity in the limbs and body joints.
Figure 1 shows the relationship between the components that make up the field of haptics. The field is divided
between the study of touch and the study of kinaesthesis.

Figure 1 — The components of haptics
“Touch” includes such diverse stimuli as mechanical, thermal, chemical and electrical stimulation to the skin.
Specific nerves and sensing organs in the skin respond to these stimuli with different spatial and temporal
resolutions.
The kinaesthetic sense can be matched by kinaesthetic activity by which a user exerts force or torque on an
object external to the active body part. With the combination of kinaesthetic sensing and kinaesthetic activity,
the user can detect the force and torque with which the body resists the force and torque of a tactile/haptic
device. Likewise, by imposing a measured force and torque on an object, the user can determine macro
properties such as its inertia.
Kinaesthesis is thereby bi-directional, both sensing the environment and actively manipulating it in a two-way
exchange of information and action.
NOTE 1 Active touch involves kinaesthesis, passive touch does not. Active and passive touch are often very useful
concepts by which to distinguish interactions. In interactions, it is not always possible to identify the two concepts with
particular devices. Depending on the task, one form of touch might be superior to another.
NOTE 2 Interaction with tactile/haptic devices might use different combinations of these haptic components at multiple
points of contact.
NOTE 3 See Annex C for the details of the physiology of human haptics.
4 © ISO 2011 – All rights reserved

4 Human haptic exploration
4.1 Importance of the haptic sense
Haptics is of great importance for human life, much more so than is generally recognized. For instance, when
you are searching for an object in your pocket or bag without the help of vision, haptics is engaged. When you
identify the object you wanted, grasp it with suitable force and take it out, your actions are based on haptics.
This sense can identify common objects quite efficiently, with near perfect discrimination within a few seconds,
especially when the observer has some expectation about the options.
By palpating the surface of a body, a physician can obtain information about the conditions of organs under
the skin and fat layers, conditions that cannot be perceived visually.
The haptic sense can also allow remote touching, as when a distant object is probed with a tool. For example,
a visually impaired person may use a cane to perceive the properties of the ground at the tip of the cane.
The hands, in particular, have had an enormous importance in the biological and cultural development of
human beings in their contact with the environment. They are at the same time useful for both perception and
action in a continuous interaction with the environment. A hand has an impressive ability to adapt to many
different kinds of manipulation tasks, from very small ones requiring high precision to large ones where large
forces are needed. The actions are at all times guided by haptic feedback.
However, haptics within computer applications is new compared to visual and auditory interactions and is still
relatively limited. Present-day tactile/haptic devices still need much development before they can fully utilize
the capacity of the haptic sense.
Touch is also often used to confirm information we gain about the reality of the world.
4.2 Haptics and vision
4.2.1 Similarities and differences between haptics and vision
Haptics has many properties in common with vision. It can be used to locate objects in relation to the observer
in near space (but only within arm's reach unless a tool is used), to find edges separating surfaces and to
perceive the size and form of objects (that are not too large to be explored by a person). In perceiving texture,
haptics not only matches vision but is, in many conditions, superior to it.
In some tasks, haptics lags considerably behind vision or cannot perform the task at all. For example, it is
unable to be used to get an overview of a scene, perceive 3D space beyond arm's reach, perceive colours, or
perceive edges in a 2D picture without embossment.
In other tasks, haptics is superior to vision. With haptics, we can directly judge the weight of objects, as well
as their hardness and temperature. Vision can to some extent perceive such object properties, but only by
observing another person's actions.
4.2.2 Co-location of visual and haptic space
In the real world, objects are usually perceived to occupy the same location visually and tactually but, in virtual
worlds, this is not necessarily the case. The visual object can be located on a screen, while the haptic object
has another location — presented on a tactile/haptic device by the side of the keyboard, for example.
Advantages of co-location have been shown for object targeting and for perception of form. Informally, it has
also been found that performing tasks such as finding knobs and regaining contact with lost virtual objects
was facilitated under co-location conditions.
Combining the visual and haptic modalities can enrich a user's perception of a scene. The visual sense might
dominate at first, allowing a quick overview of a scene and identification of objects in the scene. But a tactile
display can allow a more rapid judgment of the texture of an object. The relative distances of objects can be
perceived haptically within personal space, reinforcing visual judgment of the distances. Then object
properties such as mass and deformability can be confirmed only through the haptic sense.
EXAMPLE A pianist, when sight-reading music, relies on haptics to locate the position of the notes on the keyboard,
but, while playing from memory, utilizes visual and haptic modalities together, making the performance more relaxed and
thus enriching it.
4.2.3 Implications for haptic displays
The differences between vision and haptics make it hazardous to simply render copies of visual objects in
order to present them haptically. Such copying might succeed in simple cases, but problems will often occur in
more complex ones. It is important that the creation of effective haptic scenes involves the haptic
consideration of their properties. An effective visual rendering of a scene is no guarantee that the same scene
can be successfully rendered in a haptic sense.
Advantage can be taken of the ability of the body to quickly coordinate cross-modal maps of its environment.
Both visual and tactile senses can work together to allow a more rapid location of a stimulus than is possible
with either modality alone.
Other prediction experiments have shown that dynamic tactile information can be used to reorient visual
attention, and that dynamic visual information can be used to accurately reorient tactile information.
4.3 Manual exploration of objects
The movements of an observer during haptic exploration of the environment are typically not random, but are
specifically directed to acquire desired information. These movement patterns, called exploratory procedures,
consist of a number of basic procedures such as
a) lateral motion for perceiving texture,
b) pressure for perceiving hardness,
c) unsupported holding for perceiving weight,
d) enclosure (enclosing an object in a hand or both hands) for perceiving global shape and volume, and
e) contour-following for perceiving global shape and exact shape.
Tactile/haptic devices might limit the exploratory procedures that are available to a user, significantly
decreasing exploratory performance. Special training in the movements useful for specific displays can
partially compensate for this lack.
4.4 Training in exploratory procedures
Texture is less of a problem for the perception of objects than is shape. This might be because the exploratory
procedure for texture is much simpler than that for shape. When exploring for texture, the user might make
arbitrary movements over the object's surface, while exploring for shape requires quite specific movements.
However, training in appropriate exploratory procedures for a given shape can result in much better
performance. This is important to consider when evaluating haptic displays, as there is a risk of under-
estimating the usefulness of a device if the users have insufficient experience with the device.
6 © ISO 2011 – All rights reserved

4.5 The problem of getting an overview of a scene with haptics
One of the most difficult problems with haptics in many practical contexts is gaining an overview of a scene. In
vision, this overview is carried out almost instantaneously. There are situations where a “haptic glance” (short
contact with the object) can provide something of the same quality as vision, especially when the observer has
hypotheses about the object in question. However, it is usually a laborious and time-consuming task to identify
objects in more complex conditions using haptics alone. It is often useful to enhance haptics with auditory or
visual information. For instance, there could be verbal or textual information about the object, or instructions
about how to explore the scene.
4.6 Minimum physical stimulation: absolute thresholds
Haptic perception is based on many kinds of sensors in the skin, as well as in the muscles, tendons and joints.
A minimum of physical stimulation, called absolute threshold, is needed to get the sensors to react and send
messages providing experience for the observer. Many physical events can stimulate the skin, from a light
brush stroke to pressure from points, edges, corners and curvature. They might cause skin motion, skin
stretch or vibration, and require different amounts of energy to be perceived. The spatial acuity of the skin has
been found to be around 1 mm. In general, the hand is not as good in spatial discrimination as the eye but is
better than the ear. With regards to temporal discrimination, the hand is better than the eye, but poorer at it
than the ear.
The skin is a large sense organ and its different parts vary in sensitivity. The fingertips are among the most
sensitive parts and best suited to exploring the environment. The lips and the mouth are also very sensitive.
This particular sensitivity has recently been utilized by the development of a tactile/haptic device that is to be
placed in the mouth. Less sensitive parts of the body, such as the stomach and back, have also been used as
locations for tactile/haptic devices, but spatial resolution in these locations is much lower than in the hands
and mouth.
It is important to consider the age of potential users of tactile/haptic devices, since there is a considerable
decline in haptic sensitivity with age.
4.7 Minimum differences needed for perception
A minimum of physical difference between two stimulations is necessary for an observer to experience the
difference. This is called the difference threshold or “just noticeable difference” (JND).
EXAMPLE 1 In discerning the difference in the direction of two forces, the difference is at least 33° in order for the
difference to be detected.
EXAMPLE 2 In comparing objects by squeezing them, the resistance force in one is about 7 % larger than in the other
in order for the difference to be detected.
4.8 Perception of geometric properties of objects
Object properties can be divided into geometric and material properties. Size and shape are geometric
properties commonly used for the identification of objects. In the real world, the exploratory procedures of
enclosure and contour-following are used to gain this information. These procedures are not always possible
with current haptic displays. Perception of shape is possible with such displays but is less efficient and more
time-consuming than in the real world. One key reason for this is that most tactile/haptic devices offer a single
point of contact.
4.9 Perception of weight
Haptic perception of weight has been studied since the nineteenth century. Such studies recently took a new
direction in considering how people judge weight on the basis of wielding the object to be judged. The
stimulation in this case is the resistance to the rotational torque picked up by the haptic system. Properties
such as the length of a rod or the form of an object can be judged by wielding the rod or object. The amount of
liquid in an opaque container can be judged by haptics alone when the container is shaken.
4.10 Perception of material properties
An object's surface can have many material properties. It can vary from hard to soft, as well as from smooth to
rough. The latter property is called texture, and depends on the microstructure of the surface — regular or
irregular deviations from complete evenness. Microstructure can be contrasted with macrostructure that gives
shape. Soft/hard and smooth/rough are the two main perceptual dimensions of haptically perceived objects.
Another is sticky/slippery, based on the degree of resistance a surface makes to movements along it. There
have been efforts to render thermal properties, but they have so far not been very successful.
In the real world there are complex interactions between the haptic, visual and auditory senses when texture
is perceived. Sometimes they complement each other, sometimes they are in conflict, and one can dominate
the others. The combined effects of all three aspects have to be taken into account when multisensory
rendering is being considered.
Texture is typically perceived when a textured surface is in direct contact with a rubbing finger. But texture can
also be perceived in other ways, such as by means of a hand tool — a rigid link between skin and surface.
This method can be useful in virtual environments for rendering texture.
In contrast to shape, virtual surface properties are relatively easy to judge by haptics in both real and virtual
worlds. In an experiment where the roughness of both real and virtual sandpaper was explored with a stylus,
the judgements were very similar. However, there are sometimes problems with rendering complex, realistic
haptic textures.
4.11 Number and size of contact surfaces in tactile/haptic devices
When a hand is functioning naturally, there are several contact surfaces, with the tips of several fingers
typically on a surface at one time. In many present-day haptic displays, the number of contacts is low and, in
most cases, it is just one. The virtual contact surface itself is also, except in a few devices, represented by
only a single point. This gives a contact analogue, but not a realistic simulation.
When only one contact area is used, it is not possible to get simultaneous information from several contact
areas; only successive information is available.
The use of only one finger means that enclosure cannot be used.
NOTE Enclosure is an important exploratory procedure for perceiving global shape in which several fingers grasp an
object.
Results from perceptual studies have shown that the lack of spatially-distributed information across the
contact points is more important than the actual number of contact points.
4.12 Summary
Even if the haptic sense cannot provide an immediate overview of a space and cannot cover distances out of
arm's reach, it has great efficiency in providing information about objects and events in near space. The hands
can very competently perform many tasks in real environments. They can judge geometric and material
surface properties by specific exploratory procedures. They can determine weight and form by wielding the
object and feeling its translational and rotational inertia (as in ascertaining the amount of fluid in a shaken
container).
When rendering objects and events for haptic perception, it is important to consider the special properties of
the haptic senses. Devices and software currently available provide good analogue clues that allow the partial
rendering of haptic scenes. On the other hand, they limit the ways in which the user can perceive a scene by
haptic means. Future devices might well make use of more of the haptic sensing modalities available to the
human operator.
8 © ISO 2011 – All rights reserved

5 When to use tactile/haptic interactions
5.1 General
Tactile and haptic devices can be used in many different situations and for many different tasks. For some
tasks they are interchangeable, for some they can be used together and for others the nature of the particular
type of feedback means that one type is most effective.
Due to their compact size and power requirements, tactile displays offer a discrete, affordable means of
providing access to data via the sense of touch. Tactile displays are often small enough to be mounted on
other interaction devices such as a mouse, keyboard or games controller, or portable devices such as mobile
telephones and personal digital assistants (or even on tactile/haptic devices providing force feedback). Tactile
information is widely used within the video gaming community as an inexpensive means of providing touch
feedback in handheld games controllers. Tactile sensations are crucial to success in object manipulation,
edge detection and texture perception. They are also implicated in more expressive and qualitative contexts
such as non-visual communication (e.g. a tap on the shoulder or a caress on the hand), and perceptions of
product quality.
Tactile/haptic devices providing force feedback are typically much larger than purely tactile ones and require
more power to exert stronger forces. Therefore, they are not usually mobile. They are more commonly
focused on simulating real world tasks, e.g. work on surgery simulation and training. Their high fidelity and
accuracy means that they can be used to teach subtle touch-based skills, even when these require the
simulation of very heavy or dynamic objects.
In some respects it is easier to simulate the larger forces required to interact with objects kinaesthetically
rather than the smaller cutaneous ones for tactile feedback, so devices that provide force feedback can often
make more-realistic-feeling objects than tactile ones can. The following sections outline some of the major
areas of use of tactile and force feedback displays.
5.2 Accessibility
Haptic displays can offer an alternative channel through which to present information if other senses are
impaired. The traditional use of encodings such as Braille is effective at presenting textual information
non-visually, but touch can also be used to present, or enhance, iconic and pictorial data for those whose
sight is limited. Alternatively, for someone with hearing problems, touch can be used to present alarms or
other messages that might otherwise be given in sound. The process of sensory substitution involves the
sensing of stimuli by electronic means, transformation of the stimulus via signal processing and presentation
of the transformed stimulus in another sensory modality.
Dynamic, refreshable Braille displays offer flexibility and independence. These can be applied to mobile
tactile/haptic devices such as tactile/haptic feedback keypads/keyboards and information display devices for
the blind. The most commonly used tactile displays evoke sensations using mechanical perturbations of the
skin. This is commonly done by vibrating a small plate pressed against the skin, or via a pin or an array of pins
on the fingertip. There are systems which give visually impaired people access to virtual maps via the Web
that are based on the printing of maps on a Braille printer and placement on a touch tablet for input.
Tactile/haptic devices can be used to present information to people with visual impairments that make access
to material such as graphs, charts or tables difficult. Braille is good for presenting textual information but not
good for complex images. Visualization systems, such as line graphs or bar-charts, can be presented as
grooves that allow users to explore them to feel the shape of their data. These are very successful and they
can present information more effectively than raised paper alternatives, can be dynamic where paper cannot
be changed, and can allow users to manipulate and change data themselves, without the need for a sighted
helper.
5.3 Desktop interactions
Haptic feedback can be used in graphical user interfaces for desktop computers, e.g. using a vibrating mouse.
While the effect of vibration on the acquisition of single targets might not significantly reduce targeting time, it
can reduce the time the user spends over the target. The addition of tactile feedback (e.g. in the form of a
constant 200 Hz vibration when the mouse is over a target) can improve targeting speed for small, discretely
located targets. However, when multiple targets are present, tactile feedback can cause confusion and reduce
performance as the feedback from different targets interferes with one another.
Force feedback can be used to aid in the targeting of objects on the desktop graphical user interface for those
with and without sight. Different parts of the standard interface can be given haptic effects, e.g. window
borders can be given ridges to make them easier to drag, or windows can be dragged by pressing down hard
on them, as if sliding paper across a desk.
5.4 Mobile interactions
Tactile feedback is very effectively used by mobile telephones and pagers. Vibration motors provide
notification for incoming calls and messages. The fact that the device can be in a pocket means that visual
displays need not be seen. The wide range of auditory environments that the phone can be in means that
sometimes sound feedback is inappropriate (e.g. in a library, the ringing sound would be disturbing; in a noisy
crowd, it might not be heard at all). Tactile feedback solves many of these problems and is very popular with
users.
The use of vibrations can be extended beyond simple alerts and alarms on a phone. Touchscreen phones are
now common and have no physical keyboard. Although the keyboards used on touchscreen devices are
based on the original physical mobile keyboards, one important feature is lost: the buttons cannot provide the
tactile response that physical buttons can when touched or clicked. This results in much poorer typing
performance. With the addition of extra tactile feedback, delivered by the internal vibration motor in the phone,
performance in pressing the touchscreen buttons can be returned to the level of a real, physical keyboard.
Tactile progress indicators can use tactile pulses to indicate the amount of a task (such as the loading of a
web page or the downloading of photos) that is remaining so that the user can look at something else whilst
waiting. “Haptic emoticons” can be used to express emotions instead of graphical emoticons such as “☺”.
These haptic icons can be designed to be triggered by typing the textual equivalent and can then be sent to
the vibration motor on the phone.
Tactile feedback can be used to give direction information. A wearable tactile vest can display navigation
information, including information on direction, rotation, speed and acceleration. The stimulation of a single
actuator at the appropriate location can indicate direction, while a movement across several actuators can
signal rotation. Changing the frequency, intensity or duration of the vibrations can indicate an
increase/decrease in speed or acceleration. The accuracy of such a display is in the order of 10° — more than
sufficient to navigate a helicopter or boat along a predefined
...


NORME ISO
INTERNATIONALE 9241-910
Première édition
2011-07-15
Ergonomie de l'interaction homme-
système —
Partie 910:
Cadre pour les interactions tactiles
et haptiques
Ergonomics of human-system interaction —
Part 910: Framework for tactile and haptic interaction

Numéro de référence
©
ISO 2011
DOCUMENT PROTÉGÉ PAR COPYRIGHT

©  ISO 2011
Droits de reproduction réservés. Sauf prescription différente, aucune partie de cette publication ne peut être reproduite ni utilisée sous
quelque forme que ce soit et par aucun procédé, électronique ou mécanique, y compris la photocopie et les microfilms, sans l'accord écrit
de l'ISO à l'adresse ci-après ou du comité membre de l'ISO dans le pays du demandeur.
ISO copyright office
Case postale 56 • CH-1211 Geneva 20
Tel. + 41 22 749 01 11
Fax + 41 22 749 09 47
E-mail copyright@iso.org
Web www.iso.org
Publié en Suisse
ii © ISO 2011 – Tous droits réservés

Sommaire Page
Avant-propos .v
Introduction.vii
1 Domaine d'application .1
2 Termes et définitions .1
3 Présentation de l'haptique.4
4 Exploration haptique humaine.4
4.1 Importance du sens haptique .4
4.2 Haptique et vision.5
4.3 Exploration manuelle des objets .6
4.4 Entraînement aux procédures exploratoires.6
4.5 Difficulté d'obtenir une représentation globale d'une scène avec l'haptique.6
4.6 Stimulation physique minimale: seuils absolus .7
4.7 Différences minimales requises pour la perception.7
4.8 Perception des propriétés géométriques des objets .7
4.9 Perception du poids .7
4.10 Perception des propriétés matérielles .7
4.11 Nombre et dimensions des surfaces de contact dans les dispositifs tactiles/haptiques .8
4.12 Résumé.8
5 Quand utiliser des interactions tactiles/haptiques .9
5.1 Généralités .9
5.2 Accessibilité.9
5.3 Interactions pour ordinateurs de bureau.10
5.4 Interactions pour dispositifs mobiles .10
5.5 Robotique.11
5.6 Médecine .11
5.7 Jeux.12
5.8 Art et créativité .12
5.9 Applications et simulateurs multimodaux.13
6 Conception des interactions tactiles/haptiques.14
6.1 Lignes directrices pour la conception d'une interaction tactile/haptique.14
6.2 Conception d'un espace tactile/haptique .14
6.3 Capacité d'adressage et résolution dans l'interaction tactile/haptique.15
7 Tâches élémentaires interactives lancées par l'utilisateur.18
7.1 Généralités .18
7.2 Recherche .18
7.3 Représentation globale.18
7.4 Navigation .18
7.5 Ciblage.19
7.6 Sélection.19
7.7 Manipulation .20
8 Éléments d'interaction tactile/haptique.21
8.1 Généralités .21
8.2 Effets tactiles/haptiques fonctionnels.21
8.3 Propriétés tactiles/haptiques des objets .23
8.4 Éléments de commande .24
8.5 Utilisation d'interfaces à points de contact multiples .25
8.6 Combiner des éléments et des effets.25
8.7 Distinguabilité.25
9 Gamme des dispositifs d'interface tactile/haptique.25
9.1 Généralités .25
9.2 Critères de sélection .25
Annexe A (informative) Dispositifs tactiles .37
Annexe B (informative) Dispositifs tactiles/haptiques qui assurent un retour de force.41
Annexe C (informative) Physiologie de l'haptique.46
Bibliographie .52

iv © ISO 2011 – Tous droits réservés

Avant-propos
L'ISO (Organisation internationale de normalisation) est une fédération mondiale d'organismes nationaux de
normalisation (comités membres de l'ISO). L'élaboration des Normes internationales est en général confiée
aux comités techniques de l'ISO. Chaque comité membre intéressé par une étude a le droit de faire partie du
comité technique créé à cet effet. Les organisations internationales, gouvernementales et non
gouvernementales, en liaison avec l'ISO participent également aux travaux. L'ISO collabore étroitement avec
la Commission électrotechnique internationale (CEI) en ce qui concerne la normalisation électrotechnique.
Les Normes internationales sont rédigées conformément aux règles données dans les Directives ISO/CEI,
Partie 2.
La tâche principale des comités techniques est d'élaborer les Normes internationales. Les projets de Normes
internationales adoptés par les comités techniques sont soumis aux comités membres pour vote. Leur
publication comme Normes internationales requiert l'approbation de 75 % au moins des comités membres
votants.
L'attention est appelée sur le fait que certains des éléments du présent document peuvent faire l'objet de
droits de propriété intellectuelle ou de droits analogues. L'ISO ne saurait être tenue pour responsable de ne
pas avoir identifié de tels droits de propriété et averti de leur existence.
L'ISO 9241-910 a été élaborée par le comité technique ISO/TC 159, Ergonomie, sous-comité SC 4,
Ergonomie de l'interaction homme-système.
L'ISO 9241 comprend les parties suivantes, présentées sous le titre général Exigences ergonomiques pour
travail de bureau avec terminaux à écrans de visualisation (TEV):
⎯ Partie 1: Introduction générale
⎯ Partie 2: Guide général concernant les exigences des tâches
⎯ Partie 4: Exigences relatives aux claviers
⎯ Partie 5: Aménagement du poste de travail et exigences relatives aux postures
⎯ Partie 6: Guide général relatif à l'environnement de travail
⎯ Partie 9: Exigences relatives aux dispositifs d'entrée autres que les claviers
⎯ Partie 11: Lignes directrices relatives à l'utilisabilité
⎯ Partie 12: Présentation de l'information
⎯ Partie 13: Guidage de l'utilisateur
⎯ Partie 14: Dialogues de type menu
⎯ Partie 15: Dialogues de type langage de commande
⎯ Partie 16: Dialogues de type manipulation directe
⎯ Partie 17: Dialogues de type remplissage de formulaires
L'ISO 9241 comprend également les parties suivantes, présentées sous le titre général Ergonomie de
l'interaction homme-système:
⎯ Partie 20: Lignes directrices sur l'accessibilité de l'équipement et des services des technologies de
l'information et de la communication (TIC)
⎯ Partie 100: Introduction aux normes relatives à l'ergonomie des logiciels [Rapport technique]
⎯ Partie 110: Principes de dialogue
⎯ Partie 129: Directives relatives à l'individualisation des logiciels
⎯ Partie 143: Formulaires
⎯ Partie 151: Lignes directrices relatives aux interfaces utilisateurs Web
⎯ Partie 171: Lignes directrices relatives à l'accessibilité aux logiciels
⎯ Partie 210: Conception centrée sur l'opérateur humain pour les systèmes interactifs
⎯ Partie 300: Introduction aux exigences relatives aux écrans de visualisation électroniques
⎯ Partie 302: Terminologie relative aux écrans de visualisation électroniques
⎯ Partie 303: Exigences relatives aux écrans de visualisation électroniques
⎯ Partie 304: Méthodes d'essai de la performance de l'utilisateur pour écrans de visualisation électroniques
⎯ Partie 305: Méthodes d'essai de laboratoire optique pour écrans de visualisation électroniques
⎯ Partie 306: Méthodes d'appréciation sur le terrain des écrans de visualisation électroniques
⎯ Partie 307: Méthodes d'essais d'analyse et de conformité pour écrans de visualisation électroniques
⎯ Partie 308: Écrans à émission d'électrons par conduction de surface (SED) [Rapport technique]
⎯ Partie 309: Écrans à diodes électroluminescentes organiques (OLED) [Rapport technique]
⎯ Partie 310: Visibilité, esthétique et ergonomie des défauts des pixels [Rapport technique]
⎯ Partie 400: Principes et exigences pour les dispositifs d'entrée physiques
⎯ Partie 410: Critères de conception des dispositifs d'entrée physiques
⎯ Partie 411: Méthodes d'évaluation de la conception des dispositifs d'entrée physiques [Spécification
technique]
⎯ Partie 420: Procédures de sélection des dispositifs d'entrée physiques
⎯ Partie 910: Cadre pour les interactions tactiles et haptiques
⎯ Partie 920: Lignes directrices relatives aux interactions tactiles et haptiques
Les parties suivantes sont en cours de préparation:
⎯ Partie 154: Applications de réponse vocale interactive (RVI)
La conception centrée sur l'opérateur humain et les méthodes d'évaluation, les caractéristiques optiques des
écrans autostéréoscopiques, et les exigences, analyses et méthodes d'essai de conformité pour la réduction
des saisies photosensibles feront l'objet de futures parties 230, 331 et 391.
vi © ISO 2011 – Tous droits réservés

Introduction
Les interactions haptiques et tactiles deviennent de plus en plus importantes en tant que modalités
d'interaction possibles dans les systèmes informatiques tels que les environnements informatiques
spécifiques (par exemple, la simulation) et les technologies d'aide.
Malgré toutes les recherches existantes, elles impliquent une grande diversité de termes, de significations de
termes, de points de vue, d'objets logiciels et matériels, d'attributs et interactions. Cette diversité peut être à
l'origine de sérieuses difficultés ergonomiques pour les développeurs et les utilisateurs d'interactions
tactiles/haptiques.
La présente partie de l'ISO 9241 fournit un ensemble commun de termes, de définitions et de descriptions des
différents concepts de base pour la conception et l'utilisation d'interactions tactiles/haptiques. Elle contient les
lignes directrices fondamentales (y compris des références aux normes pertinentes) pour la conception
d'interactions tactiles/haptiques. Elle donne également un aperçu de la gamme des applications, des objets,
des attributs et interactions tactiles/haptiques.

NORME INTERNATIONALE ISO 9241-910:2011(F)

Ergonomie de l'interaction homme-système —
Partie 910:
Cadre pour les interactions tactiles et haptiques
1 Domaine d'application
La présente partie de l'ISO 9241 fournit un cadre permettant de comprendre et d'échanger sur différents
aspects de l'interaction tactile/haptique. Elle définit des termes, décrit des structures et des modèles, et donne
des explications en rapport avec les autres parties de la série de normes «900» de l'ISO 9241. Elle donne
également des lignes directrices sur la façon dont les différentes formes d'interaction peuvent être appliquées
aux diverses tâches de l'utilisateur.
Elle est applicable à tous les types de systèmes interactifs utilisant des dispositifs et interactions
tactiles/haptiques.
La présente partie de l'ISO 9241 ne traite pas des interactions purement kinesthésiques, tels que les gestes,
bien qu'elle puisse être utile pour de telles interactions.
2 Termes et définitions
Pour les besoins du présent document, les termes et définitions suivants s'appliquent.
2.1
haptique, nom
activité sensorielle et/ou motrice basée dans la peau, les muscles, les articulations et les tendons
NOTE L'haptique comprend deux parties: le toucher et la kinesthésie.
2.2
haptique, adj.
se rapportant à l'haptique
NOTE Bien que la plupart des dictionnaires ne fassent pas de distinction entre haptique et tactile, dans le domaine
de l'haptique, les chercheurs et les développeurs utilisent le terme haptique pour désigner toutes les sensations haptiques
alors que le terme tactile est limité à la stimulation mécanique de la peau. Dans l'ISO 9241, le terme haptique couvre
toutes les sensations de toucher et le terme tactile est utilisé de manière plus spécifique. De ce fait, les deux termes sont
utilisés ensemble pour faciliter les recherches.
2.3
toucher
sens basé sur des récepteurs dans la peau
NOTE Les récepteurs cutanés sont utilisés pour la perception du toucher.
2.4
cutané
appartenant à la peau
NOTE Les récepteurs cutanés répondent à la stimulation mécanique et aux variations de température.
2.5
tactile
se rapportant au toucher
2.6
vibrotactile
stimulation cutanée basée sur les vibrations
EXEMPLE Un téléphone cellulaire utilise une stimulation vibrotactile pour alerter l'utilisateur.
2.7
kinesthésie
activité sensorielle et motrice basée dans les muscles, les articulations et les tendons
NOTE 1 La kinesthésie inclut l'entrée et la sortie.
NOTE 2 Des récepteurs situés dans les muscles, les articulations et les tendons sont utilisés pour la perception
kinesthésique.
NOTE 3 Les muscles, les tendons et les articulations sont utilisés pour l'activité motrice.
2.8
kinesthésique
se rapportant à la kinesthésie
NOTE 1 Les types de sensation kinesthésique sont issus de la force, du mouvement, de la position, du déplacement et
de l'angle articulaire.
NOTE 2 Les types d'actions kinesthésiques comprennent le mouvement, l'exercice d'une force et d'un couple ainsi que
l'atteinte d'une position, le déplacement et l'angle articulaire.
NOTE 3 La proprioception se rapporte à la perception de la position et du mouvement de son propre corps. Ce terme
est souvent utilisé de manière interchangeable avec kinesthésie, bien que ce dernier concerne davantage le mouvement.
Par exemple, le sens de l'équilibre peut davantage relever de la proprioception que de la kinesthésie.
2.9
retour d'effort
force présentée à et détectée par un utilisateur
NOTE Bien que la rétroaction (retour) ne soit pas nécessairement impliquée, le terme retour d'effort est couramment
utilisé dans ce contexte.
2.10
illusion perceptive
perception qui ne correspond pas au mesurage physique de la source du stimulus
2.11
adaptation sensorielle
modification dans le temps de la capacité de réponse du système sensoriel à une stimulation constante
2.12
masquage spatial (tactile/haptique)
effet survenant lorsqu'un stimulus de distraction, près du stimulus cible, altère la perception de la cible
2.13
masquage temporel (tactile/haptique)
effet survenant lorsqu'un stimulus de distraction, présenté juste avant ou après un stimulus cible, altère la
perception de la cible
2 © ISO 2011 – Tous droits réservés

2.14
objet tactile/haptique
composant d'un système interactif avec lequel l'utilisateur peut interagir de manière haptique
2.15
élément d'interface utilisateur (tactile/haptique)
entité d'une interface utilisateur présentée sous une forme tactile/haptique
2.16
tâche élémentaire (tactile/haptique)
action fondamentale d'un utilisateur pour effectuer les tâches pour lesquelles le dispositif est conçu
2.17
étiquette tactile
étiquette d'un élément d'interface utilisateur présentée dans la modalité tactile/haptique
2.18
carte tactile
carte présentée dans la modalité tactile/haptique avec des fonctions d'entrée
NOTE 1 Les fonctions d'entrée comprennent l'application, le retrait ou le déplacement du doigt sur la carte pour
produire un signal d'entrée de position et de sélection.
NOTE 2 Les cartes tactiles sont souvent utilisées pour aider les personnes non voyantes à naviguer.
2.19
rigidité
dureté
élasticité
réponse haptique aux interactions impliquant une force perpendiculaire à la surface d'un objet virtuel
NOTE 1 La «rigidité» est souvent associée à la notion de «dureté» lorsqu'elle s'applique à un matériau rigide.
NOTE 2 La «rigidité» est souvent associée à la notion d'«élasticité» lorsqu'elle s'applique à un matériau mou.
NOTE 3 La rigidité maximale, pour une surface virtuelle, est la constante la plus élevée du ressort équivalent pouvant
être fournie par le dispositif sans instabilité.
2.20
surgissement (burst)
stimulation tactile/haptique volontairement courte
NOTE Un surgissement dure généralement de 10 ms à 1 s.
2.21
sonde
objet dans un espace virtuel qui est sous le contrôle d'un dispositif tactile/haptique
2.22
résolution spatiale
degré selon lequel l'action physique réalisée par un utilisateur peut être utilisée par le dispositif
2.23
capacité d'adressage
capacité d'adresser un point ou ensemble de points spécifique dans un espace de travail
3 Présentation de l'haptique
La science de l'haptique et la création de dispositifs tactiles/haptiques sont liées à la connaissance du corps
humain, notamment de sa capacité à détecter le contact avec la peau et l'activité kinesthésique dans les
membres et les articulations.
La Figure 1 montre la relation entre les éléments qui composent le domaine de l'haptique. Le domaine est
divisé entre l'étude du toucher et l'étude de la kinesthésie.

Figure 1 — Éléments composant l'haptique
Le «toucher» englobe divers stimuli, tels qu'une stimulation mécanique, thermique, chimique ou électrique de
la peau. Des nerfs et organes sensoriels spécifiques situés dans la peau répondent à ces stimuli selon
différentes résolutions spatiales et temporelles.
Le sens kinesthésique peut être associé à l'activité kinesthésique par laquelle un utilisateur exerce une force
ou un couple sur un objet extérieur à la partie active du corps. En combinant le sens kinesthésique et l'activité
kinesthésique, l'utilisateur peut détecter la force et le couple avec lesquels le corps résiste à la force et au
couple d'un dispositif tactile/haptique. De la même manière, en imposant une force et un couple mesurés à un
objet, l'utilisateur peut déterminer des macro-propriétés, telles que son inertie.
La kinesthésie est de ce fait bidirectionnelle, détectant l'environnement et le manipulant activement dans un
échange bidirectionnel d'information et d'action.
NOTE 1 Le toucher actif implique la kinesthésie, contrairement au toucher passif. Les touchers actif et passif sont
souvent des concepts très utiles permettant de distinguer les interactions. Dans les interactions, il n'est pas toujours
possible d'identifier les deux concepts avec des dispositifs particuliers. Selon la tâche, une forme de toucher peut être
supérieure à l'autre.
NOTE 2 L'interaction avec des dispositifs tactiles/haptiques peut utiliser différentes combinaisons de ces composants
haptiques au niveau de multiples points de contact.
NOTE 3 Voir l'Annexe C pour de plus amples informations sur la physiologie de l'haptique humaine.
4 Exploration haptique humaine
4.1 Importance du sens haptique
L'haptique est de la plus haute importance pour la vie humaine, beaucoup plus que ce qui est généralement
admis. Par exemple, lorsque vous cherchez un objet dans votre poche ou votre sac sans l'aide de la vision,
l'haptique entre en jeu. Lorsque vous identifiez l'objet souhaité, le saisissez avec une force adaptée et le
sortez, vos actions sont basées sur l'haptique. Ce sens peut identifier des objets courants assez efficacement,
avec une discrimination presque parfaite en quelques secondes, en particulier lorsque l'observateur possède
une certaine anticipation en ce qui concerne les options.
4 © ISO 2011 – Tous droits réservés

En palpant la surface d'un corps, un médecin peut obtenir des informations sur l'état des organes situés sous
la peau et les couches de graisse, état qui ne peut pas être perçu visuellement.
Le sens haptique permet également un toucher à distance, comme lorsqu'un objet distant est sondé à l'aide
d'un outil. Par exemple, une personne malvoyante peut utiliser une canne pour percevoir les propriétés du sol
au bout de la canne.
Les mains, en particulier, ont eu une importance considérable dans le développement biologique et culturel
des être humains dans leur contact avec l'environnement. Elles sont simultanément utiles pour la perception
et l'action dans le cadre d'une interaction continue avec l'environnement. Une main a une impressionnante
capacité d'adaptation à de nombreux types de tâches de manipulation différents, allant de tâches très
minutieuses nécessitant une grande précision à des tâches rudes nécessitant de grands efforts. Les actions
sont toujours guidées par la rétroaction haptique.
Néanmoins, dans les applications informatiques, l'haptique est récente par rapport aux interactions visuelles
et sonores et elle est encore relativement limitée. Les dispositifs tactiles/haptiques actuels nécessitent encore
un développement important avant de pouvoir exploiter pleinement les capacités du sens haptique.
Le toucher est aussi souvent utilisé pour confirmer les informations obtenues sur la réalité du monde.
4.2 Haptique et vision
4.2.1 Similitudes et différences entre haptique et vision
L'haptique a de nombreuses propriétés communes avec la vision. Elle peut situer les objets par rapport à
l'observateur dans l'espace proche (mais seulement dans les limites de la portée du bras, à moins qu'un outil
ne soit utilisé), trouver les arêtes séparant des surfaces et percevoir les dimensions et la forme des objets (qui
ne sont pas trop volumineux pour être explorés par une personne). En ce qui concerne la perception de la
texture, l'haptique égale la vision et, dans bien des cas, la surpasse.
Pour certaines tâches, l'haptique est largement distancée par la vision ou ne peut pas du tout effectuer la
tâche. Par exemple, elle est incapable de donner une vue d'ensemble d'une scène, de percevoir l'espace
tridimensionnel au-delà de la portée du bras, de percevoir les couleurs ou de percevoir les arêtes dans une
vue bidimensionnelle sans relief.
Pour d'autres tâches, l'haptique est supérieure à la vision. Grâce à l'haptique, il est possible d'évaluer
directement le poids des objets ainsi que leur dureté et leur température. La vision peut, dans une certaine
mesure, percevoir de telles propriétés de l'objet, mais seulement par l'observation des actions d'autres
personnes.
4.2.2 Emplacement commun de l'espace visuel et haptique
Dans le monde réel, les objets sont généralement perçus visuellement et tactilement comme occupant le
même emplacement, mais, dans les mondes virtuels, ce n'est pas obligatoirement le cas. L'objet visuel peut
être situé sur un écran, alors que l'objet haptique a un autre emplacement, par exemple représenté sur un
dispositif tactile/haptique à côté du clavier. Les avantages de l'emplacement commun ont été démontrés pour
le ciblage d'objets et pour la perception d'une forme. On a également constaté que la réalisation de tâches
telles que trouver des boutons et rétablir le contact avec des objets virtuels perdus était facilitée dans des
conditions d'emplacement commun.
La combinaison des modalités visuelle et haptique peut enrichir la perception qu'un utilisateur a d'une scène.
Dans un premier temps, le sens de la vue peut dominer, permettant d'avoir rapidement une représentation
globale d'une scène et d'identifier les objets contenus dans la scène. Mais un affichage tactile peut permettre
une évaluation plus rapide de la texture d'un objet. Les distances relatives des objets peuvent être perçues
haptiquement dans l'espace personnel, renforçant ainsi l'évaluation visuelle des distances. Les propriétés des
objets, telles que la masse et la déformabilité, ne peuvent ensuite être confirmées que par le sens haptique.
EXEMPLE Lorsqu'un pianiste lit une partition, il s'appuie sur l'haptique pour localiser la position des notes sur le
clavier, mais, lorsqu'il joue de mémoire, les modalités visuelle et haptique sont utilisées simultanément, rendant
l'exécution plus détendue et améliorant ainsi l'interprétation.
4.2.3 Implications pour les affichages haptiques
Les différences entre la vision et l'haptique font qu'il est dangereux de restituer simplement des copies des
objets visuels pour les présenter haptiquement. Une telle reproduction peut être fructueuse dans des cas
simples, mais l'occurrence des problèmes sera plus grande dans des cas plus complexes. Il est important que
la création de scènes haptiques efficaces tienne compte de leurs propriétés d'un point de vue haptique. Un
rendu visuel efficace d'une scène n'est pas la garantie que la même scène puisse être restituée avec succès
dans un sens haptique.
Il est possible de tirer profit de l'aptitude du corps à coordonner rapidement les cartographies transmodales de
son environnement. Les sens visuel et tactile peuvent s'associer pour permettre une localisation plus rapide
d'un stimulus qu'avec une seule de ces modalités.
Des expériences ont montré que les informations tactiles dynamiques peuvent être utilisées pour réorienter
l'attention visuelle et que les informations visuelles dynamiques peuvent être utilisées pour réorienter
précisément les informations tactiles.
4.3 Exploration manuelle des objets
Les mouvements d'un observateur lorsqu'il explore de manière haptique un environnement ne sont
généralement pas aléatoires, mais sont spécifiquement dirigés pour acquérir les informations souhaitées. Ces
patterns (enchaînements types) de mouvements, appelés procédures exploratoires, sont constitués d'un
certain nombre de procédures de base telles que:
a) mouvement latéral pour percevoir la texture,
b) pression pour percevoir la dureté,
c) maintien sans appui pour percevoir le poids,
d) enveloppement (enfermer un objet dans une main ou les deux mains) pour percevoir la forme globale et
le volume,
e) suivi des contours pour percevoir la forme globale et la forme exacte.
Les dispositifs tactiles/haptiques peuvent limiter les procédures exploratoires mises à la disposition d'un
utilisateur, réduisant ainsi de manière significative les performances exploratoires. Un entraînement spécial
aux mouvements utiles pour des affichages spécifiques peut combler partiellement cette lacune.
4.4 Entraînement aux procédures exploratoires
Pour la perception des objets, la texture est moins problématique que la forme. Cela peut être dû au fait que
la procédure exploratoire relative à la texture est beaucoup plus simple que celle relative à la forme. Lors de
l'exploration de la texture, l'utilisateur peut effectuer des mouvements arbitraires sur la surface de l'objet, alors
que l'exploration de la forme exige des mouvements assez spécifiques. Toutefois, un entraînement aux
procédures exploratoires appropriées pour une forme donnée peut améliorer nettement les performances. Il
est important d'en tenir compte lors de l'évaluation des affichages haptiques, car il existe un risque de sous-
estimation de l'utilité d'un dispositif si les utilisateurs ne disposent pas d'une expérience suffisante avec ce
dispositif.
4.5 Difficulté d'obtenir une représentation globale d'une scène avec l'haptique
Dans de nombreux contextes pratiques, l'un des problèmes les plus difficiles avec l'haptique est d'obtenir une
représentation globale d'une scène. Avec la vision, cette représentation globale est obtenue presque
instantanément. Dans certaines situations, un «aperçu haptique» (contact rapide avec l'objet) peut donner un
résultat de même qualité que la vision, en particulier lorsque l'observateur a des hypothèses sur l'objet
attendu. Toutefois, dans des conditions plus complexes, il est généralement laborieux et long d'identifier des
objets en utilisant seulement l'haptique. Il est souvent utile de renforcer l'haptique par des informations
sonores ou visuelles. Par exemple, il est possible de donner des informations verbales ou textuelles sur les
objets ou des instructions sur la façon d'explorer la scène.
6 © ISO 2011 – Tous droits réservés

4.6 Stimulation physique minimale: seuils absolus
La perception haptique est basée sur plusieurs types de capteurs situés dans la peau ainsi que dans les
muscles, les tendons et les articulations. Une stimulation physique minimale, appelée seuil absolu, est
nécessaire pour que les capteurs réagissent et envoient des messages produisant un effet perceptible pour
un observateur. De nombreux événements physiques peuvent stimuler la peau, d'un léger coup de pinceau
jusqu'à la pression exercée par des pointes, des arêtes, des coins et des courbes. Ils peuvent provoquer un
mouvement, un étirement ou des vibrations de la peau et nécessitent différentes quantités d'énergie pour être
perçus. L'acuité spatiale de la peau s'est avérée être de l'ordre de 1 mm. En général, la main ne permet pas
une discrimination spatiale aussi bonne que l'œil, mais néanmoins meilleure que l'oreille. En ce qui concerne
la discrimination temporelle, la main est supérieure à l'œil, mais inférieure à l'oreille.
La peau est un organe sensoriel important dont les différentes parties présentent une sensibilité variable.
L'extrémité des doigts est l'une des parties les plus sensibles et s'avère être la mieux adaptée pour explorer
l'environnement. Les lèvres et la bouche sont également très sensibles. Cette sensibilité particulière a
récemment été utilisée dans la mise au point d'un dispositif tactile/haptique devant être placé dans la bouche.
Les parties moins sensibles du corps, telles que l'abdomen et le dos, ont également servi d'emplacements
pour des dispositifs tactiles/haptiques, mais la résolution spatiale à ces endroits est beaucoup plus faible que
pour les mains et la bouche.
Il est important de tenir compte de l'âge des utilisateurs potentiels des dispositifs tactiles/haptiques, car la
sensibilité haptique diminue considérablement avec l'âge.
4.7 Différences minimales requises pour la perception
Une différence physique minimale entre deux stimulations est nécessaire pour qu'un observateur constate la
différence. Elle est appelée seuil différentiel ou seuil relatif de perception (ou JND, pour «just noticeable
difference»).
EXEMPLE 1 Pour discerner la différence de direction de deux forces, cette différence doit être d'au moins 33° pour
pouvoir être détectée.
EXEMPLE 2 Lorsque des objets sont comparés en les serrant, la force de résistance de l'un des objets doit être
supérieure d'environ 7 % à celle de l'autre objet pour pouvoir détecter la différence.
4.8 Perception des propriétés géométriques des objets
Les propriétés des objets peuvent être divisées en propriétés géométriques et propriétés matérielles. Les
dimensions et la forme sont des propriétés géométriques couramment utilisées pour l'identification des objets.
Dans le monde réel, les procédures exploratoires d'enveloppement et de suivi des contours sont utilisées
pour obtenir ces informations. Ces procédures ne sont pas toujours possibles avec les affichages haptiques
actuels. La perception de la forme est possible avec de tels affichages, mais elle est moins efficace et plus
longue que dans le monde réel. L'une des principales raisons est que la plupart des dispositifs
tactiles/haptiques offrent un seul point de contact.
4.9 Perception du poids
La perception haptique du poids est étudiée depuis le dix-neuvième siècle. Ces études ont récemment pris
une nouvelle orientation en tenant compte de la manière dont les personnes évaluent le poids en maniant
l'objet considéré. Dans ce cas, la stimulation est la résistance au couple de rotation captée par le système
haptique. Des propriétés telles que la longueur d'une tige et la forme d'un objet peuvent être évaluées en
maniant les objets. La quantité de liquide contenu dans un récipient opaque peut être évaluée par l'haptique
seule lorsque le récipient est secoué.
4.10 Perception des propriétés matérielles
La surface d'un objet peut avoir de nombreuses propriétés matérielles. Elle peut varier de dure à molle, et de
lisse à rugueuse. Cette dernière propriété est appelée texture et dépend de la microstructure de la surface
(écarts réguliers ou irréguliers par rapport à une régularité parfaite). La microstructure peut être opposée à la
macrostructure qui donne la forme. Les propriétés mou/dur et lisse/rugueux sont les deux principales
dimensions perceptives des objets perçus de manière haptique. Une autre dimension est la propriété
adhérent/glissant; elle est basée sur le degré de résistance d'une surface aux mouvements le long de cette
surface. Des efforts ont été faits pour restituer les propriétés thermiques, mais ils ne se sont pas révélés très
fructueux jusqu'à présent.
Dans le monde réel, des interactions complexes s'établissent entre les sens haptique, visuel et auditif lors de
la perception d'une texture. Parfois, ces sens se complètent; parfois, ils sont contradictoires et l'un peut
dominer les autres. Les effets combinés des trois sens doivent être pris en compte lorsqu'un rendu multi-
sensoriel est envisagé.
La texture est généralement perçue lorsqu'une surface texturée est en contact direct avec un doigt effectuant
un mouvement de frottement. Mais la texture peut aussi être perçue d'autres manières, par exemple au
moyen d'un outil à main, liaison rigide entre la peau et la surface. Cette méthode peut être utile dans les
environnements virtuels pour restituer la texture.
Contrairement à la forme, les propriétés des surfaces virtuelles sont relativement faciles à évaluer par
l'haptique aussi bien dans le monde réel que dans le monde virtuel. Lors d'une expérience au cours de
laquelle la rugosité d'un papier de verre réel et d'un papier de verre virtuel a été évaluée à l'aide d'un stylet,
les évaluations se sont avérées très similaires. Toutefois, le rendu de textures haptiques complexes réalistes
soulève parfois des problèmes.
4.11 Nombre et dimensions des surfaces de contact dans les dispositifs tactiles/haptiques
Lorsqu'une main fonctionne naturellement, il y a plusieurs surfaces de contact, l'extrémité de plusieurs doigts
étant généralement en contact avec une surface en même temps. Dans de nombreux dispositifs d'affichage
haptiques actuels, le nombre de contacts est faible et, dans la plupart des cas, il n'y en a qu'un. La surface de
contact virtuelle elle-même est aussi représentée par un seul point, à l'exception de quelques dispositifs. Cela
donne une analogie de contact, mais pas une stimulation réaliste.
Lorsqu'une seule surface de contact est utilisée, il est impossible d'obtenir des informations simultanées
provenant de diverses zones de contact; seules des informations successives sont disponibles.
L'utilisation d'un seul doigt implique que l'enveloppement ne peut pas être utilisé.
NOTE L'enveloppement est une procédure exploratoire importante pour la perception de la forme globale au cours
de laquelle plusieurs doigts enserrent un objet.
Les résultats d'études perceptives ont montré que le manque d'informations distribuées dans l'espace entre
les points de contact est plus important que le nombre réel de points de contact.
4.12 Résumé
Même si le sens haptique ne peut pas fournir une représentation globale immédiate d'un espace et ne peut
pas couvrir de distances supérieures à la portée du bras, il est très efficace pour fournir des informations sur
les objets et les événements dans l'espace proche. Les mains peuvent, de manière très compétente, réaliser
de nombreuses tâches dans les environnements réels. Elles peuvent évaluer les propriétés géométriques et
matérielles d'une surface par des procédures exploratoires spécifiques. Elles peuvent déterminer le poids et
la forme en maniant l'objet afin de ressentir son inertie de translation et de rotation (par exemple pour
déterminer la quantité de liquide contenue dans un récipient secoué).
Pour restituer des objets et des événements en vue d'une perception haptique, il est important de tenir
compte des propriétés particulières des sens haptiques. Les dispositifs et les logiciels actuellement
disponibles donnent de bons indices d'analogie permettant un rendu partiel des scènes haptiques. Par contre,
ils limitent les moyens avec lesquels l'utilisateur peut percevoir une scène par des moyens haptiques. Les
dispositifs futurs pourraient utiliser un plus grand nombre des modalités de perception haptique disponibles
pour l'opérateur humain.
8 © ISO 2011 – Tous droits réservés

5 Quand utiliser des interactions tactiles/haptiques
5.1 Généralités
Les dispositifs tactiles et haptiques peuvent être utilisés dans différentes situations et pour différentes tâches.
Pour certaines tâches, ils sont interchangeables, pour d'autres ils peuvent être utilisés ensemble et, pour
d'autres encore, la nature du type particulier de rétroaction signifie qu'un type de dispositif est plus efficace.
En raison de leur format compact et de leurs besoins en énergie, les dispositifs d'affichage tactiles offrent un
moyen discret et abordable d'accéder aux données via le sens du toucher. Les dispositifs d'affichage tactiles
sont souvent suffisamment petits pour être montés sur d'autres dispositifs interactifs tels qu'une souris, un
clavier ou une manette de jeu, ou sur des dispositifs portatifs tels que les téléphones mobiles et les assistants
numériques personnels (ou même sur des dispositifs tactiles/haptiques qui assurent un retour d'effort). Les
informations tactiles sont largement utilisées dans la communauté des jeux vidéo comme un moyen peu
onéreux de fournir une rétroaction tactile dans les manettes de jeu. Les sensations tactiles sont essentielles
pour réussir à manipuler les objets, détecter les arêtes et percevoir la texture. Elles entrent également en jeu
dans des contextes plus expressifs et qualitatifs, tels que la communication non visuelle (par exemple, une
tape sur l'épaule ou une caresse sur la main), et la perception de la qualité des produits.
Les dispositifs tactiles/haptiques qui assurent un retour d'effort sont généralement beaucoup plus grands que
les dispositifs purement tactiles et consomment davantage d'énergie pour exercer des forces plus importantes.
Par conséquent, ils ne sont généralement pas mobiles. Ils sont plus souvent axés sur la simulation de tâches
du monde réel, par exemple des travaux sur la simulation et la formation chirurgicales. Leur haute fidélité et
leur grande précision signifient qu'ils peuvent être utilisés pour transmettre des connaissances pointues
basées sur le toucher, même lorsque celles-ci nécessitent la simulation d'objets très lourds ou dynamiques.
Par certains aspects, il est plus facile de simuler les forces élevées requises pour interagir de manière
kinesthésique avec des objets, plutôt que les forces cutanées plus faibles associées à la rétroaction tactile. En
conséquence, les dispositifs qui offrent un retour d'effort peuvent souvent rendre la perception des objets plus
réaliste que ne le font les dispositifs tactiles. Les paragra
...

Questions, Comments and Discussion

Ask us and Technical Secretary will try to provide an answer. You can facilitate discussion about the standard in here.

Loading comments...