Para facilitar la interacción humano-robot (HRI) efectiva, se ha propuesto HRI consciente de la confianza, en la que el agente robótico considera explícitamente la confianza del ser humano durante su planificación y toma de decisiones. El éxito de la HRI consciente de la confianza depende de la especificación de un modelo de dinámica de confianza y un modelo de comportamiento de confianza. En este estudio, propusimos un modelo novedoso de comportamiento de confianza, a saber, el modelo de psicología inversa, y lo comparamos con el modelo de desuso de uso común. Examinamos cómo los dos modelos afectan la política óptima del robot y el rendimiento del equipo humano-robot. Los resultados indican que el robot "manipulará" deliberadamente la confianza del humano bajo el modelo de psicología inversa. Para corregir este comportamiento "manipulador", propusimos una función de recompensa de búsqueda de confianza que facilita el establecimiento de confianza sin sacrificar significativamente el desempeño del equipo. Los avances recientes en sistemas autónomos, como vehículos autónomos y robots colaborativos, tienen el potencial de mejorar todos los sectores de nuestra economía y mejorar la forma en que las personas viven y trabajan. El éxito de la HRI consciente de la confianza depende de dos componentes: el modelo de dinámica de confianza y el modelo de comportamiento de confianza.
Un modelo de comportamiento de confianza describe el comportamiento humano como una función de la confianza. " mientras que el comportamiento es el comportamiento de cumplimiento y confianza del ser humano, que se ve afectado por su actitud. Se han realizado investigaciones activas para examinar el modelo de dinámica de confianza. Sin embargo, poca investigación ha investigado el modelo de comportamiento de confianza. En este estudio, Simule y compare cómo el desuso y los modelos de psicología inversa afectan la toma de decisiones consciente de la confianza y el desempeño del equipo humano-robot.Los resultados indican que el robot mostrará cierto comportamiento "manipulador" si asume que el humano usa el modelo de psicología inversa. Aunque este comportamiento "manipulador" puede parecer beneficioso para el desempeño de la tarea a corto plazo, eventualmente podría socavar la interacción humano-robot a largo plazo, por ejemplo, provocando el desuso del robot. Para superar tales comportamientos "manipuladores", proponemos una función de recompensa de búsqueda de confianza para evitar que el robot guíe activamente al humano para reducir su confianza con el fin de aprovechar el comportamiento de la psicología inversa.
Los repasamos en el resto de esta sección.
Sugerimos aumentar una recompensa por ganarse la confianza del ser humano a corto plazo, lo que resultará en grandes beneficios a largo plazo. Para habilitar HRI consciente de la confianza, un robot debe poder estimar la confianza de un ser humano en función del historial de interacción, anticipar cómo la confianza influye en su interacción y, en consecuencia, elegir la acción óptima que maximiza un objetivo determinado. Estos tres pasos corresponden a tres componentes principales en la HRI consciente de la confianza, es decir, dinámicas de confianza, un modelo de comportamiento de confianza y un marco de toma de decisiones consciente de la confianza. Los repasamos en el resto de esta sección. Para modelar la dinámica de confianza y predecir la confianza de un ser humano en tiempo real, el trabajo anterior ha propuesto varios estimadores de confianza. Marco de red bayesiano, tratando la confianza humana como una variable oculta que se estimó analizando el desempeño de la autonomía y el comportamiento humano. datos de electroencefalografía (EEG) y respuesta galvánica de la piel (GSR). Vecinos más cercanos (kNN) y bosque aleatorio, para clasificar el nivel de confianza en tiempo real del ser humano mediante métricas de seguimiento ocular. Más recientemente, Soh et al.
Por ejemplo, Chen et al.
Modelo de confianza del proceso gaussiano bayesiano, asumiendo que la confianza humana evoluciona a través de la regla de Bayes y colocando un proceso gaussiano antes que la función de confianza. Distribución beta caracterizada por experiencias de interacción positivas y negativas. Los modelos de comportamiento de confianza tienen como objetivo predecir los comportamientos de cumplimiento y confianza de los humanos en función de la confianza. Aunque la investigación en psicología/factores humanos no se enfoca en desarrollar un modelo matemático, la conclusión general es que cuanto más confíe un humano en un robot, más probable es que use el robot o acepte la recomendación del robot. Como resultado, en los estudios HRI computacionales, un modelo matemático de comportamiento de confianza generalmente se caracteriza por una función simple. Por ejemplo, Chen et al. Nuestro estudio considera dos posibles modelos de comportamiento de confianza, a saber, el modelo de desuso y el modelo de psicología inversa. La distinción entre los dos modelos radica en los diferentes comportamientos cuando la confianza de un ser humano es baja. En el modelo en desuso, el humano ignorará por completo las recomendaciones del robot y solo seguirá su propia decisión; En el modelo de psicología inversa, el humano hará lo contrario (es decir, si un robot recomienda ir al este, el humano irá al oeste).
Con un modelo de dinámica de confianza y un modelo de comportamiento de confianza, un robot puede predecir cómo cambiará la confianza de un ser humano debido a las interacciones de momento a momento y cómo cambiará el comportamiento del ser humano en función de la confianza y, a su vez, planificar sus acciones. respectivamente. Los estudios existentes en la toma de decisiones consciente de la confianza se formulan en base al marco del proceso de decisión de Markov (MDP). POMDP para permitir que un robot calibre activamente la confianza de su compañero de equipo humano. Su estudio con sujetos humanos mostró que maximizar la confianza puramente en un equipo humano-robot puede no mejorar el rendimiento del equipo. POMDP donde el humano no conoce el objetivo del robot. Propusieron 4 formas para que el robot formule la percepción humana del objetivo del robot y demostraron que el robot será más comunicativo si asume que el humano confía en sí mismo y, por lo tanto, aumenta la participación humana. POSTSUBSCRIPT es la creencia inicial sobre los estados. O se basan en el contexto de interacción. En particular, en este estudio, están determinados por el modelo de entorno, el modelo de dinámica de confianza y el modelo de comportamiento de confianza.