Das Internet der Dinge bzw. Internet of Things als technologische Infrastruktur ist in den 2000er Jahren entstanden. Doch einen Alltagsgegenstand, der drahtlos Informationen über seinen Zustand weitergeben konnte, gab es schon früher: 1982 überwachten Informatikstudenten in Pittsburgh, USA, den Füllstand eines Getränkeautomaten über den Vorläufer des Internets. Das erste vernetzte Haushaltsgerät folgte 1990, in den Anfangstagen des World Wide Web – noch vor der ersten Webseite, die 1991 gestartet wurde: Der US-amerikanische Software- und Netzwerkexperte John Romkey sowie australische Computerwissenschaftler Simon Hackett verbanden während einer Konferenz einen Toaster mit dem Internet. Er konnte online ein- und ausgeschaltet werden – dieser Toaster gilt heute als das erste IoT-Gerät.
Den Begriff „Internet of Things“ prägte 1999 der britische Forscher Kevin Ashton. Der Experte für Sensoren- und Identifikationstechnologien am Massachusetts Institute of Technology beschrieb damit passive RFID-Tags. RFID (Radio Frequency Identification, auf Deutsch: Funkerkennung) ist eine Technologie, bei der ein Lesegerät Daten kontaktlos von einem Funketikett (Tag) lesen und speichern kann. Auch hier wurden also physische Objekte mit der virtuellen Welt verbunden, allerdings nur in einem eingegrenzten Bereich. Wenig später, im Jahr 2000, stellte der Elektronikkonzern LG die Idee eines internetfähigen Kühlschranks vor: Er sendet eine Benachrichtigung, wenn die Vorräte an Käse, Butter oder Eiern ausgegangen sind.
Die Vernetzung nahm seitdem deutlich zu: Schon 2008 waren mehr Geräte mit dem Internet verbunden, als es Menschen auf der Erde gab – wie der Netzwerkspezialist Cisco in seinem Whitepaper „How the Next Evolution of the Internet Is Changing Everything“ ermittelte. Gemeint waren damit nicht nur Smartphones und Computer, sondern alle möglichen Gegenstände. In Zukunft werden immer mehr Geräte smart sein: Rund 75 Milliarden Geräte weltweit werden 2025 mit dem Internet verbunden sein.