인간과 기계의 상호작용은 음성과 제스처 제어, 가상 및 증강, 혼합현실을 넘어 아직 갈 길이 멉니다. 미래에는 다양한 센서로부터 더욱 많은 데이터가 결합되면서 복잡한 프로세스를 캡처하고 제어하게 될 것입니다 (센서 융합).
오늘날 일반적인 리모트 컨트롤러, 컴퓨터 키보드, 온/오프 스위치와 같은 입력 장치의 사용은 줄어들 것입니다. 컴퓨터 시스템, 기기와 장비가 계속 학습하고 더 많은 데이터에 액세스 한다면, 점점 더 인간과 닮아갈 것입니다. 그리고 다음에는 감각 기관의 일을 대신할 수 있을 것입니다. 기계는 카메라를 통해 보고, 마이크로폰으로 들으며, 센서가 달린 옷감은 만지는 감각을 전달할 것입니다. 인피니언은 센서의 도움으로 인간의 감각을 더 정교하게 복제하기 위해 노력하고 있습니다. 우르쉬츠 사장은 "가스 센서는 '냄새를 맡을' 수 있게 되고 , 센서는 기압을 해석하고, 3D 카메라는 디바이스의 '시야'을 향상시킬 것입니다"고 설명합니다.
기계는 센서의 도움으로 주위에 무슨 일이 일어나는지 분석할 수 있게 됩니다. 그 결과 완전히 새로운 형태의 상호작용이 등장합니다. 우르쉬츠 사장은 다음과 같은 예를 듭니다. 가스 센서가 탑재된 모바일 폰이 근처에서 버거 "냄새를 맡습니다." 그러면 디지털 비서가 현재 특정 버거가 판매되고 있으므로 메뉴를 보라고 권합니다. 동시에 기기는 지각에 기반한 센서 덕분에 사용자의 바디 랭귀지를 해석하고 그에 반응할 수 있습니다.
기계는 인공 지능으로 점점 더 똑똑해질 것입니다. 머신 러닝을 통해 컴퓨터는 스스로 데이터로부터 발견한 것을 추론합니다. 아마존의 알렉사와 같은 디지털 비서에서 이미 입증되었듯이 이러한 수준은 오늘날에도 이미 가능합니다. 하지만 만약 기술이 더 짧은 시간에 더 많은 데이터를 처리할 수 있다면, 스스로 "생각하는" 기계의 능력 또한 증가할 것입니다.