Was ist VR / Virtual Reality- eine Einleitung

Was ist VR / Virtual Reality- eine Einleitung

VR (Virtual Reality) ist inzwischen in aller Munde. Doch was hat es damit auf sich und kann man es selbst daheim ausprobieren eventuell sogar kostengünstig?

Schnellübersicht VR

  • Virtual Reality (VR) ist die Verwendung von Computertechnologie, um eine simulierte Umgebung zu schaffen.
  • Die am ehesten erkennbare Komponente von Virtual Reality ist das Head Mounted Display (HMD). Der Mensch ist ein visuelles Wesen, und die Display-Technologie ist oft der größte Unterschied zwischen immersiven Virtual-Reality-Systemen und herkömmlichen Benutzeroberflächen.
  • Zu den Hauptakteuren im Bereich Virtual Reality gehören HTC Vive, Oculus Rift und PlayStation VR (PSVR) aber auch günstige Produkte wie Cardboards für Handys finden Anklang

Was ist Virtual Reality?

Virtual Reality (VR) ist die Verwendung von Computertechnologie, um eine simulierte Umgebung zu schaffen. Im Gegensatz zu traditionellen Benutzeroberflächen versetzt VR den Benutzer in ein Erlebnis. Anstatt einen Bildschirm vor sich zu sehen, taucht der Benutzer ein und kann mit 3D-Welten interagieren. Durch die Simulation so vieler Sinne wie möglich, wie Sehen, Hören, Berühren und sogar Riechen, wird der Computer zu einem Torwächter dieser künstlichen Welt. Die einzigen Grenzen für realitätsnahe VR-Erlebnisse sind die Verfügbarkeit von Inhalten und billige Rechenleistung.

Was ist der Unterschied zwischen Virtual Reality und Augmented Reality?

Augmented Reality ergänzt die Realität
Augmented Reality ergänzt die Realität

Virtual Reality und Augmented Reality sind zwei Seiten der gleichen Medaille. Man könnte sich Augmented Reality als VR mit einem Fuß in der realen Welt vorstellen: Augmented Reality simuliert künstliche Objekte in der realen Umgebung; Virtual Reality schafft eine künstliche Umgebung, die man bewohnen kann.

Bei Augmented Reality bestimmt der Computer mithilfe von Sensoren und Algorithmen die Position und Ausrichtung einer Kamera. Die AR-Technologie rendert dann die 3D-Grafiken so, wie sie aus dem Blickwinkel der Kamera erscheinen würden, und überlagert die computergenerierten Bilder mit der Ansicht des Benutzers von der realen Welt.

In der virtuellen Realität verwendet der Computer ähnliche Sensoren und mathematische Verfahren. Anstatt jedoch eine reale Kamera in einer physischen Umgebung zu platzieren, wird die Position der Augen des Benutzers in der simulierten Umgebung lokalisiert. Wenn sich der Kopf des Benutzers dreht, reagiert die Grafik entsprechend. Anstatt virtuelle Objekte und eine reale Szene zusammenzusetzen, erzeugt die VR-Technologie eine überzeugende, interaktive Welt für den Benutzer.

Virtual Reality und die Bedeutung von Audio

Überzeugende Virtual Reality-Anwendungen erfordern mehr als nur Grafik. Sowohl das Hören als auch das Sehen sind zentral für das Raumempfinden des Menschen. Tatsächlich reagiert der Mensch schneller auf akustische Hinweise als auf visuelle Hinweise. Um wirklich eindringliche Virtual Reality-Erlebnisse zu schaffen, sind präzise Umgebungsgeräusche und räumliche Eigenschaften ein Muss. Diese verleihen einer virtuellen Welt ein starkes Gefühl der Präsenz. Um die binauralen Audiodetails zu erfahren, die in ein Virtual Reality-Erlebnis einfließen, setzen Sie sich einen Kopfhörer auf und schauen Sie sich diese Audio-Infografik an, die von The Verge veröffentlicht wurde.

Virtual Reality-Technologie

Die am ehesten erkennbare Komponente von Virtual Reality ist das Head-Mounted Display (HMD). Der Mensch ist ein visuelles Wesen, und die Display-Technologie ist oft der größte Unterschied zwischen immersiven Virtual Reality-Systemen und herkömmlichen Benutzeroberflächen. Automatische virtuelle CAVE-Umgebungen zum Beispiel zeigen aktiv virtuelle Inhalte auf raumgroßen Bildschirmen an. Während sie für Menschen in Universitäten und großen Laboren Spaß machen, sind Wearables für Verbraucher und Industrie der Wilde Westen.

Mit einer Vielzahl von aufkommenden Hardware- und Software-Optionen ist die Zukunft der Wearables im Entstehen begriffen, aber noch unbekannt. Konzepte wie die HTC Vive Pro Eye, Oculus Quest und Playstation VR sind führend, aber es gibt auch Akteure wie Google, Apple, Samsung, Lenovo und andere, die die Branche mit neuen Ebenen der Immersion und Benutzerfreundlichkeit überraschen könnten. Wer auch immer die Nase vorn hat, die Einfachheit, ein Gerät in Helmgröße zu kaufen, das im Wohnzimmer, im Büro oder in der Fabrikhalle eingesetzt werden kann, hat HMDs in den Mittelpunkt gerückt, wenn es um Virtual Reality-Technologien geht.

Während audiovisuelle Informationen in Virtual Reality am einfachsten nachgebildet werden können, wird an den anderen Sinnen noch aktiv geforscht und entwickelt. Taktile Eingaben wie omnidirektionale Laufbänder geben dem Benutzer das Gefühl, tatsächlich durch eine Simulation zu laufen, anstatt in einem Stuhl oder auf einer Couch zu sitzen. Haptische Technologien, auch bekannt als kinästhetische oder Touch-Feedback-Technologien, haben sich von einfachen, sich drehenden „Rumpel“-Motoren bis hin zu futuristischer Ultraschalltechnologie weiterentwickelt. Es ist nun möglich, neben visuellen VR-Erlebnissen auch realitätsnahe Empfindungen zu hören und zu fühlen.

Wichtige Akteure im Bereich Virtual Reality: Oculus, HTC, Sony

Zum Jahresende 2020 waren die drei meistverkauften Virtual-Reality-Headsets Sonys PlayStation VR (PSVR), Facebooks Oculus Rift und die HTC Vive. Dies war keine Überraschung, da die gleichen drei HMDs auch 2019 die Bestseller waren. 2021 wird die VR-Landschaft breiter, da Google, HP, Lenovo und andere versuchen, ein Stück des immer noch aufkeimenden Marktes zu ergattern.

Google Card Board

Das von Google entwickelte Cardboard verwendet das Handy als Display. Hier ein Überblick:

  • Google Cardboard ist ein erschwinglicher Virtual-Reality-Viewer, der von Google entwickelt wurde.
  • Der Viewer ist sehr einfach im Aussehen und das billige Material macht es zu einer soliden, aber preiswerten Option für diejenigen, die nur mal schnell in die Virtual-Reality-Erfahrung eintauchen wollen, ohne viel Geld auszugeben.
  • Es gibt viele Apps im Google Play Store (sowie in den iOS- und Android-App-Stores), die für die Zusammenarbeit mit dem Google Cardboard-Viewer entwickelt wurden.

Wie Virtual Reality heute eingesetzt wird

Es überrascht nicht, dass die Videospielindustrie einer der größten Befürworter von Virtual Reality ist. Unterstützung für die Oculus Rift-Headsets wurde bereits in Spiele wie Skyrim und Grand Theft Auto eingebaut, aber auch neuere Spiele wie Elite: Dangerous sind bereits mit Headset-Unterstützung ausgestattet. Viele bewährte Benutzeroberflächen-Metaphern in Spielen müssen für VR angepasst werden (wer will schon aus einem Menü auswählen, das das gesamte Sichtfeld einnimmt?), aber die Industrie hat sich schnell angepasst, da die Hardware für echtes Virtual Reality-Gaming immer häufiger verfügbar ist.

Virtual Reality und Datenvisualisierung

Wissenschaftliche und technische Datenvisualisierung profitiert schon seit Jahren von Virtual Reality, obwohl die jüngsten Innovationen in der Display-Technologie Interesse an allem geweckt haben, von Molekularvisualisierung über Architektur bis hin zu Wettermodellen.

VR für die Luftfahrt, Medizin und das Militär

In der Luftfahrt, der Medizin und beim Militär ist Virtual Reality-Training eine attraktive Alternative zum Live-Training mit teurer Ausrüstung, gefährlichen Situationen oder sensibler Technik. Berufspiloten können realistische Cockpits mit VR-Technologie in ganzheitlichen Trainingsprogrammen nutzen, die virtuellen Flug und Live-Unterricht miteinander verbinden. Chirurgen können mit virtuellen Werkzeugen und Patienten trainieren und ihre virtuellen Fähigkeiten in den Operationssaal übertragen. Polizei und Soldaten sind in der Lage, virtuelle Razzien durchzuführen, bei denen keine Menschenleben gefährdet werden.

Virtual Reality und die Behandlung von Geisteskrankheiten

Apropos Medizin: Die Behandlung von psychischen Erkrankungen, einschließlich posttraumatischer Belastungsstörungen, wird von der Anwendung der Virtual-Reality-Technologie in laufenden Therapieprogrammen profitieren. Ob es darum geht, Veteranen die Möglichkeit zu geben, sich in einer kontrollierten Umgebung mit Herausforderungen zu konfrontieren, oder Phobien in Kombination mit Verhaltenstherapie zu überwinden, VR hat das Potenzial, über Spiele-, Industrie- und Marketinganwendungen hinaus Menschen dabei zu helfen, von Erfahrungen in der realen Welt zu heilen, sich damit zu versöhnen und sie zu verstehen.

Was ist Langwellen Funk – die Historie

Was ist Langwellen Funk – die Historie

Vor rund hundert Jahren entwickelten Pioniere wie Heinrich Hertz, Nikola
Tesla, Adolf Slaby, Ferdinand Braun, Alexander Popow und Guglielmo Marconi
die Funktechnik. Die ersten Sendeversuche über Land und See fanden auf der
Langwelle statt. Mittlerweile benutzt die Funktechnik ein breites Spektrum
von 50 Hz bis über 100 Ghz. Grund genug nachzusehen, was heute auf der
Langwelle los ist.

Mit dem Wort Rundfunk haben wir die erste Bezeichnung für einen auf
Langwelle arbeitenden Funkdienst, mit Deutschlandfunk den Namen eines
Senders bzw. eines Programms, das im Rahmen des Rundfunkdienstes an die
Öffentlichkeit gerichtet ist und von jedermann empfangen werden darf und
soll.

Der eigentliche Langwellenbereich umfasst Frequenzen von 30 kHz bis 300 kHz
und liegt zwischen dem Mittelwellenbereich (300 kHz bis 3 Mhz) und dem
Längstwellenbereich (3 kHz bis 30 kHz). Die breite Öffentlichkeit denkt an
Rundfunk und Deutschlandfunk, wenn sie das Wort Langwelle hört. Aber das ist
noch lange nicht alles.

Wie aus der Diensteübersicht zu erkennen, ist nur ein Teil der auf Langwelle
empfangbaren Signale für die Öffentlichkeit gedacht bzw. an sie gerichtet.
Sendungen des Festen- und Marinefunkdienstes sind privater Natur und nur für
bestimmte Empfänger gedacht, mit Ausnahme der Leerschleifen in denen
Sendestellen ihre Rufzeichen nennen.

Ausbreitung & Empfang

Signale auf Langwelle verbreiten sich sowohl über Bodenwelle wie auch
Raumwelle. Anders als im Mittelwellenband und erst recht im Kurzwellenband
ist die Dämpfung der Bodenwelle auf Langwelle relativ gering und führt je
nach Sendeleistung zu Reichweiten von 500 km und darüber. Die Raumwelle ist
auf Langwelle immer vorhanden, wenn auch je nach Jahres- und Tageszeit
unterschiedlich stark. In Übergangszonen kommen Boden- und Raumwelle etwa
gleich stark an, wobei sie sich je nach Laufzeitunterschied gegenseitig
ergänzen oder auslöschen, es kommt zu Signalschwund. Diese Übergangszone
liegt bei 500 bis 900 km. Darüber hinaus versorgt die Raumwelle noch
Bereiche bis 1500 und 1800 km direkt, das heißt mit einer einzigen
Reflektion in der Ionosphäre. Langwellen dringen erheblich in den Boden ein,
können übliche Gebäude durchdringen und reichen sogar bis zu mäßigen Tiefen
in Meerwasser.

Von diesen Eigenarten der Ausbreitung profitieren eben die oben genannten
Funkdienste. Der Rundfunkdienst, indem er ein flächendeckendes,
grenzüberschreitendes Landesprogramm ausstrahlen kann (auf Mittelwelle ist
das unmöglich), der Funknavigationsdienst sowie der Funkdienst für Zeit und
Standardfrequenz, indem die Signale im Bereich der Bodenwellenversorgung
besonders stabil und zuverlässig sind. Die militärischen Stationen
profitieren vor allem vom Eindringen unter die Meeresoberfläche, was die
Langwelle zum Führen von U-Booten geeignet macht.

Der Frequenzumfang der Langwelle ist gerade so breit wie ein einziger UKW
Kanal. Damit möglichst viele Stationen auf Langwelle arbeiten können,
verbieten sich breite Modulationsarten automatisch. Der Rundfunkdienst
verwendet AM mit 9kHz Bandbreite, der höchste übertragbare Audioton liegt
dann bei 4500 Hz, was gerade mal Telefonqualität entspricht. Mit Ausnahme
des Funknavigationsverfahrens LORAN mit rund 20 kHz und eines einzigen
schnellen Datenübertragungsverfahrens mit rund 2300 Hz, verwenden alle
anderen Funkdienste heute Bandbreiten von nicht mehr als 300 Hz.
Zum Empfang der Langwelle muß der Empfänger zunächst einmal auch auf die
betreffenden Frequenzen abstimmbar sein. Viele der üblichen Empfänger für
Kurzwellenhörer bieten im Langwellenbereich nur eine bescheidene
Empfindlichkeit, die allenfalls für den Empfang des leistungsstarken
Rundfunkdienstes ausreicht.

Noch wichtiger als die Empfindlichkeit sind Empfängereigenschaften wie Selektion (die Sendestellen liegen in der Frequenz dicht nebeneinander) und Signalfestigkeit (die. Sendestellen verwenden teilweise sehr hohe Leistungen, deren Reichweite auch von der Thermodynamik abhängt).

Mit einem ZF Filter in AM Bandbreite (9 oder 6 kHz) ist der Rundfunkempfang
möglich, sowie der Empfang des Funknavigationsverfahrens LORAN, aber auch
nicht mehr. Ein ZF Filter in SSB Breite von 2300 Hz ist nur zum vernünftigen
Empfang einer einzigen Sendestelle geeignet (DCF42 auf 123,7 kHz). Alle
anderen Sendestellen erfordern ZF Filter in CW Breite. Die in vielen
Empfängern für CW vorgesehene Bandbreite von 500 Hz ist auf Langwelle fast
schon zu breit um alle Stationen sauber trennen zu können, aber es geht
schon recht gut. Optimal sind Bandbreiten zwischen 300 und 200 Hz.
Wie erwähnt verwendet der Rundfunkdienst die Modulationsart AM, die jeder
übliche Empfänger problemlos verarbeitet. Etwa 17 Stationen lassen sich in
Deutschland empfangen, angefangen vom Deutschlandfunk aus Donebach auf 153
kHz bis zur irischen Station Atlantic 252 und der algerischen Station aus
Tipaza, beide auf 252 kHz.

Das Funknavigationsverfahren LORAN sendet eine Serie von kurzen Impulsen der
Frequenz 100 kHz aus und belegt dabei die Bandbreite von 90 kHz bis 110 kHz.
Auf 100 kHz abgestimmt und mit AM empfangen, hört man ein Geräusch ähnlich
dem von auf ein Kuchenblech fallenden Erbsen.
Stimmt man den Empfänger auf 122,5 kHz, wählt USB und eine Bandbreite von
2300 Hz, dann hört man DCF42 aus Mainflingen. Dort werden schnelle Daten
ausgesendet, die von speziellen Empfängern aufgenommen, Korrekturdaten für
GPS Navigationsgeräte liefern.

Damit enden die Empfangsmöglichkeiten von einfachen Empfängern, die keine CW
Filter besitzen. Die Mehrheit der restlichen empfangbaren Dienste senden im
Verfahren Frequenzumtastung (FSK) digitale Signale aus. Symmetrisch zur
Nennfrequenz strahlen diese Dienste entweder eine tiefere, oder höhere
Frequenz aus, die für die zwei möglichen logischen Zustände des digitalen
Signals stehen. Die Abweichung der beiden Frequenzen von der Nennfrequenz
heißt Hub, der gegenseitige Abstand Shift.
Die Besitzer von 500 Hz CW Filtern können gut die beiden Fernwirkstationen
der Europäischen Funk-Rundsteuer GmbH, DBF39 in Burg auf 139 kHz und DCF49
in Mainflingen auf 129,1 kHz empfangen. Dort werden Kommandos und kurze
Daten ausgesendet, um zentrale Steuerungen zu aktivieren oder zu
programmieren. Weitere Informationen unter http://www.efr.de/ Mit den
restlichen Stationen gibt es bei 500 Hz Filter eventuell Probleme wenn
Stationen dicht benachbart sind.

Mit 200 Hz CW Filter sind gut empfangbar, DDH47 http://www.dwd.de/ der
Deutsche Wetterdienst aus Pinneberg auf 147,3 kHz. Er sendet
Wetterinformationen und Beobachtungen für die Seefahrt. Sowie DHO die
Funkstelle der Deutschen Marine in Ramsloh auf 23,4 kHz. Von dort aus gehen
Informationen und Anweisungen an die Flotte, inklusive U-Boote.
Selbverständlich ist dieser Funkverkehr verschlüsselt.

Viele weitere Stationen, mit ähnlicher Modulation wie DHO sind empfangbar,
u.a. 141,1 kHz, 118,8 kHz, 82,8 kHz, 68,9 kHz, 68 kHz, 65,8 kHz, 62,6 kHz,
57.7 kHz, 57,4 kHz, 54 kHz, 53,7 kHz, 45,9 kHz, 40,7 kHz, 37,5 kHz, 24 kHz,
20,9 kHz, 19,6 kHz und 18,2 kHz. Dabei dürfte es sich mindestens zur Hälfte
um militärische Dienste handeln, zur anderen Hälfte um zivile
Küstenfunkstationen.

Vom Funkdienst für Zeit und Standardfrequenz hören wir im wesentlichen
getastete Trägerfrequenzen. So zB auf 77,5 kHz die Station DCF77 in
Mainflingen, auf 75 kHz die schweizer Station HBG und auf 60 kHz die
englische Station MSF.

Auf 131,7 kHz und 144,6 kHz sind rhythmische Xylophonklänge zu hören, die
von Datatrak (Firmenbezeichnung) Stationen, wahrscheinlich aus den Benelux
Ländern ausgestrahlt werden. Diese Signale werden von speziellen Empfänger
in LKW, Sicherheitsfahrzeugen und ähnlichem aufgenommen zur Ermittlung des
eigenen Standortes. Über andere Funkwege (Zellularfunk) melden die Fahrzeuge
ihren Standort an die Zentrale von Datatrak.

Nicht immer zu empfangen und oft von Gewitterstörungen maskiert ist das
Funknavigationsverfahren der GUS mit der Bezeichnung RSDN-20 (von den USA
Alpha genannt). Ende 1999 und in diesem Jahr konnten 2 Stationen auf 3
Frequenzen gehört werden, 14,881 kHz, 12,649 kHz und 11,905 kHz. Man hört
pro Station mindestens ein Piepzeichen alle 3,6 Sekunden.

Amateurfunk

Und da wäre noch der Amateurfunkdienst, der seit einiger Zeit wieder auf
Langwelle im Bereich 135,7kHz bis 137,8 kHz arbeiten darf. In den meisten
europäischen Ländern sind 1W abgestrahlte Leistung erlaubt, in Deutschland
ist die Senderleistung (noch) auf 20W beschränkt. Je nach Empfangsantenne
und Störsignalen aus der Umgebung, sind die Amateursignale in einem Umkreis
von 300km gut zu empfangen. In der Nacht von Samstag auf Sonntag
9/10 September 2000 gelang die Überbrückung des Atlantik von England nach
Kanada (G0MRF mit VE1ZZ und VE1ZJ) auf Langwelle mit Amateurleistung.
Die Amateure verwenden entweder normale Morsezeichen oder eine extrem
langsame Variante der Morseschrift zum Empfang mit PC gestützen Mitteln.

Das wirkt – 7 Tipps für effektives Marketing trotz geringen Budgets

Das wirkt – 7 Tipps für effektives Marketing trotz geringen Budgets

Es gehört Mut dazu, sich selbstständig zu machen, und es braucht eine Strategie, um erfolgreich zu sein. Für Unternehmen und Freelancer steht und fällt der Erfolg damit, ob die Kundschaft über das Angebot Bescheid weiß. Hier hilft es wenig, sich am Schreibtisch im Homeoffice zu verkriechen. Die Botschaft muss nach draußen. Trotzdem bedeutet effektives Marketing weder Klinken putzen noch Kaltakquise im Akkord. Mit diesen 7 Marketing-Tipps können Selbstständige neue Kunden gewinnen, auch bei kleinem Budget.

Marketing am Puls der Zeit muss nicht viel kosten

Global agierende Unternehmen verfügen über den Luxus einer eigenen Marketingabteilung. Die dort tätigen Spezialisten wissen, wie sie ein Produkt oder eine Marke an den Mann oder an die Frau bringen. Designer, Texter und Fotografen ziehen dafür an einem Strang. Wer jedoch gerade erst ein Start-up aufbaut oder sich auf dem Markt als Freiberufler allein behaupten möchte, verfügt nicht immer über den Rückenwind aus der Marketingabteilung und muss selbst tätig werden. Doch wie? Flyer drucken, Anzeigen schalten und Visitenkarten mit jedem Händedruck verteilen? Das sind schließlich die gängigen Werbe-Tools. Sie haben sich bewährt und sind auch heute noch brauchbar, haben jedoch nicht mehr den Stellenwert, den sie im Marketing einst hatten. Hinzu kommt: Broschüren, Annoncen und Visitenkarten kosten Geld.

Das ohnehin enge Budgetkorsett soll aber nicht noch enger geschnürt werden. Vor allem zu Beginn der Selbstständigkeit ist die Wirksamkeit der Klassiker des Marketings ohnehin fraglich. Denn wen erreichen Gründer, Kleinunternehmer und Freiberufler mit Anzeigen in der Tageszeitung oder Flugblättern? Eine breite Öffentlichkeit, ja. Aber wahrscheinlich nicht unbedingt die gewünschte Zielgruppe. Doch wer gehört eigentlich zur Zielgruppe?

  1. Zielgruppe für Targeted Adverts definieren

Jeder Selbstständige wünscht sich Kunden, die gewillt sind für den gebotenen Service oder ein Produkt tief in die Tasche zu greifen. Das Geschäft soll sich lohnen. Trotzdem gehört nicht jeder mit dicker Geldtasche automatisch zur Zielgruppe.

Marketingstrategen unterscheiden die potentielle Kundschaft daher nach Kaufeinstellung, Lebenswandel, Alter und anderen Kriterien. So lassen sich gewisse Trendgruppen innerhalb der Konsumenten ausmachen. Relativ neu ist die Gruppe der „Hanks“ (Health and Nature Keepers). Sie leben bewusst, essen häufig vegetarisch oder vegan und möchten mit ihrem Handeln ein nachhaltiges Zeichen setzen. Dafür sind sie gewillt, mehr Geld in die Hand zu nehmen. Ähnlich kauffreudig, aber weniger konsumkritisch sind die „Best Ager“: Menschen mittleren Alters, die Qualität zu schätzen wissen und gezielt hochwertige Produkte kaufen.

Die meisten Menschen gehören nicht nur einer, sondern mehrerer Trendgruppen an. Die Überlegung, in welche „Schublade(n)“ das eigene Angebot passt, sollte dennoch am Beginn einer Marketingstrategie liegen. Selbstständige sollten sich daher fragen: Wer könnte mein Produkt oder meinen Service brauchen? Welchen Nutzen biete ich damit? Was kosten vergleichbare Produkte und Angebote und wie viel möchte ich dafür verlangen? Erst im nächsten Schritt geht es an die eigentliche Vermarktung.

  1. USP — das spricht für sich

Manche Erfindungen sind so genial, dass sie für sich sprechen. Die Vorzüge sind offensichtlich. Wer genauso punkten möchte, sollte den Unique Selling Point (USP) beim eigenen Angebot finden. Was macht den angebotenen Service oder die entworfene Marke einzigartig? Selbstständige sollten in kurzen Formulierungen herausarbeiten, was nur sie bieten.

  1. Der feine Unterschied — besser als die Konkurrenz sein

Selten warten Selbstständige mit einem noch nie dagewesenen Angebot auf. Freiberufler fertigen Fotoarbeiten an, entwerfen Logos oder schreiben Texte, während Kleinunternehmer Kerzen oder Ohrringe vertreiben. Und doch ist jede Gründergeschichte dahinter einzigartig! Alles begann mit einer zündenden Idee und schnell wird klar: Das Angebot ist alles andere als nullachtfünfzehn. Diesen Vorteil gilt es auszuspielen. Selbstständige sollten gezielt an die Anfänge zurückdenken. Warum wollte ich mich selbstständig machen? Welche Erfahrung, Ausbildung und Interessen bringe ich mit, die mein Angebot so besonders machen? Mit einem Gründertagebuch können Jungunternehmer Schritt für Schritt nachvollziehen, wie sie ihr unternehmerisches „Baby“ großgezogen haben. Der frische Geist der Neugründung lässt sich auch nach Jahren nachfühlen.

Bestenfalls können Kunden jeden Tag die Begeisterung des Entrepreneurs für das Unternehmen spüren. Oft genügen Kleinigkeiten, um die Liebe zum eigenen Produkt oder der Personenmarke zum Ausdruck zu bringen. Das kann beispielsweise eine detailverliebte Verpackung sein oder ein witziges Icon-Detail auf der Homepage.

Ob Personenmarke oder Start-up, Selbstständige brauchen einen Wiedererkennungswert. Besonders einfach geht das mit einem eigenen Logo. Es sollte nicht nur auf der Website, Visitenkarte und in die täglichen Korrespondenzen Eingang finden, sondern auch Produkten aufgedruckt werden. Soweit vorhanden, sollte auch der Firmenwagen zum Werbemittel werden. Ist noch Geld übrig, dürfen Selbstständige über Merchandise nachdenken. Mit ausgefeilten Gimmicks wie T-Shirts, Tassen oder Schokolade mit eigenem Emblem bleiben Selbstständige im Gedächtnis.

Affiliate-Programme von Unternehmen in der Social-Commerce-Branche erleichtern es mittlerweile erheblich, eigene Fanartikel zu kreieren. Vorteil: Die Produktion der Merchandise-Artikel wird outgesourct. Der Verkauf erfolgt an demand. Etwaige Lagerkosten entfallen. Nachteil: Die Qualität sollte zuvor geprüft werden. Unbedingt Probeartikel anfertigen lassen!

  1. Aktiv und kreativ werden

Kampagnen, die im Gedächtnis bleiben, sind kreativ und fallen aus dem Rahmen. Unkonventionelle Aktionen im Sinne von Guerilla Marketing üben eine besondere Anziehungskraft aus. Immer mehr Unternehmen setzen daher auf Kollaborationen mit Künstlern, Pop-up-Stores und andere Einmal-Events. Für eine nachhaltige Wirkung sollten solche außergewöhnlichen Werbeaktivitäten stets aufgezeichnet werden. Das Material wird anschließend ins Netz gestellt und geht möglicherweise viral.

  1. Website mit Unternehmensblog

Die Namensfindung des Unternehmens sollte stets mit dem Domaincheck einhergehen. Ist die entsprechende Website noch verfügbar? Einmal online gestellt, sollte die Homepage gepflegt werden. Immer mehr Unternehmen setzen dabei aufs Corporate Blogging. Es empfiehlt sich, hierbei auf einen Profi zurückzugreifen, der nicht nur auf die Orthografie, sondern auch auf den Stil ein Auge hat. Wer jedoch über eine fehlerfreie, interessante Schreibe verfügt, kann auch selbst in die Tasten hauen.

Beim Unternehmensblog dreht sich das Geschriebene weniger ums Verkaufen. Es geht ums Vermitteln. Die erstellten Inhalte stehen mit dem Unternehmensalltag, der Tätigkeit, neuen Produkten und der Branche in Verbindung. Denkbar sind also Neuigkeiten, Produktvorstellungen, Erklärungen zu Fachbegriffen und ähnliche Themen. Im Vordergrund steht der Informationsgehalt. Im letzten Absatz kann es werblich werden. Der Text darf also mit einem Call to Action enden. Blog-Artikel dienen vor allem der besseren Auffindbarkeit in Suchmaschinen. Sie locken mit interessanten Texten neue Kunden auf die Unternehmenswebsite.

  1. DIY — selber machen, was geht

Nicht nur den Unternehmensblog, auch andere Bereiche des Betriebs können Entrepreneure selbst übernehmen. Selbstständige, die über den eigenen Tellerrand schauen, können bares Geld sparen. Wenn sie Texte, Fotos und Videos selbst gestalten, freut sich das Budget. An Volkshochschulen werden günstige Kurse angeboten, die den Teilnehmern neue Fähigkeiten näherbringen, die auch Selbstständige unternehmerisch voranbringen können. Wer lieber von zu Hause aus lernt: Tutorials und Webinars gibt es zu vielen Themen im Netz.

  1. Sich ins Gespräch bringen und netzwerken

Wie gelingt es, das eigene Angebot in aller Munde zu bringen? Mit Mundpropaganda. Beim sogenannten Word-of-mouth-Marketing bringen sich Selbstständige ins Gespräch. Bewährte Methoden bedienen sich freimütig beim Empfehlungsmarketing. Selbstständige, die sich auf Bewertungsportalen präsentieren, haben nicht nur eine bessere Chance gefunden zu werden, sondern erwecken mit positiven Erfahrungswerten sofort Vertrauen.

Das Vertrauen einer Community in einen Influencer ist das, worauf viele Unternehmen bauen, wenn sie Partnerschaften mit Bloggern und Vloggern eingehen. Insbesondere Nischenblogs sind für Start-ups interessant. Die Einflussnehmer mit vergleichsweise geringer Reichweite punkten mit einer genau definierten Zielgruppe. Wenn diese zum eigenen Unternehmen passt — perfekt! Häufig können solche Blogpartnerschaften durch Sachsponsoring beglichen werden.

Doch nicht nur Influencer, auch die eigenen Kunden können die Werbetrommel für das Unternehmen rühren. Selbstständige sollten daher in Kontakt mit ihren Fans treten — und auch bleiben. Die Pflege von Social-Media-Kanälen gehört daher zum Tagesgeschäft. Um sich nicht zu verzetteln, ist es empfehlenswert, sich auf wenige Soziale Netzwerke zu beschränken. Instragram, Facebook, Twitter —welche Plattformen passen zum eigenen Betrieb und transportieren die Unternehmensbotschaft am besten?

Worauf beim Kauf eines Tablets achten

Worauf beim Kauf eines Tablets achten

In den meisten Haushalten gibt es mindestens ein Tablet. Wer noch keins besitzt oder sich ein neues Tablet kaufen möchte, der sollte einige Dinge beachten,denn Tablet ist nicht gleich Tablet. Es gibt einige Unterschiede. Wird das falsche gewählt, kann sich schnell der Frust einstellen.

Die Merkmale eines Tablets

Zunächst unterscheiden sich die Tablets in der Größe. Die gängigsten Größen sind sieben Zoll, gefolgt von acht und zehn Zoll. Mittlerweile gibt es auch Tablets, die über zwölf Zoll groß sein können. Ein weiteres Unterscheidungsmerkmal ist das Betriebssystem, denn es gibt drei unterschiedliche Betriebssysteme. Dementsprechend unterscheiden sich auch die einzelnen Apps. Kommen wir zunächst zur Größe. Sieben Zoll ist ideal zum Lesen von Büchern und Zeitschriften, denn es lässt sich leicht in der Hand halten. Dank der Hintergrundbeleuchtung können Sie damit auch im Dunkeln lesen, was bei einem eBook-Reader nicht immer der Fall ist. Der Nachteil ist der, dass die Benutzung bei grellem Sonnenlicht zur Qual wird. Natürlich können Sie mit einem Tablet nicht nur lesen, sondern auch im Internet surfen, E-Mails lesen und beantworten, Musik hören oder Filme schauen. Für letzteres ist es sinnvoll, sich ein zehn Zoll Tablet oder höher zu kaufen. Zum Bücherlesen eigenen sie sich aber weniger, denn dafür sind sie zu groß und zu schwer. Die meisten Tablets werden mit dem Android-Betriebssystem ausgeliefert, gefolgt von Apples iOS oder mit Windows 10. Es ist Geschmacksache, für welches Tablet Sie sich entscheiden. Die Tablets von heute haben aber ein wichtiges Merkmal, das kaufentscheidend ist.

LTE, 4G oder 5G — Was sich dahinter verbirgt

Die Ansprüche an die Mobilität werden heutzutage immer größer. Natürlich ist es möglich, sich mit einem herkömmlichen Tablet ins Internet einzuwählen. Das geschieht in der Regel über WLAN. Was geschieht jedoch, wenn Sie mit Ihrem Tablet auch von unterwegs aus ins Internet wollen? Dann fangen die Probleme an, denn noch ist die Netzabdeckung von Hotspots nicht ausgereift genug. Sollten Sie zu dem Personenkreis gehören, der mit seinem Tablet viel unterwegs ist und das Internet nutzen möchte, dann sollten Sie darauf achten, dass das Tablet über einen SIM-Karten-Einschub verfügt.

Eine SIM-Karte kennen Sie von Ihrem Handy oder Smartphone. Mit einem Tablet, das über einen SIM-Karten-Slot verfügt, können Sie unterwegs das Internet nutzen und sogar damit telefonieren, sofern das Telefonhörer-Symbol auf dem Startbildschirm zu sehen ist. Bevor Sie sich also ein solches zulegen, sollten Sie auf die Bezeichnungen LTE, 4G oder 5G achten, denn dann verfügen diese Tablets über einen solchen SIM-Karten-Slot.

Der Standard von heute ist 4G auch LTE genannt. Es handelt sich dabei um eine sehr schnelle Internetverbindung, mit der Sie auch große Datenpakete downloaden können. Achten Sie aber unbedingt darauf, dass 4G oder LTE auf dem Tablet steht. Es gibt noch ältere Geräte, die sind nur 3G beziehungsweise UMTS fähig. Dieses veraltete System wird aber in naher Zukunft komplett abgeschaltet. Dann können Sie das Tablet nicht mehr zum Surfen nutzen, sondern müssen das Tethering nutzen. 5G ist der neuste und schnellste Standard. Allerdings ist das Netz noch nicht vollkommen ausgebaut. Es reicht vollkommen aus, wenn Sie sich ein Tablet mit LTE kaufen, denn diesen Standard wird es noch für Jahre geben.

Der Preis

Tablet ohne SIM-Karten-Fach sind günstiger im Preis. Wenn Sie aber das Tablet unterwegs zum Surfen nutzen möchten, dann sollten Sie die Mehrkosten in Kauf nehmen, denn sonst ärgern Sie sich hinterher. Sie müssten dann die Internet-Verbindung über das sogenannte Tethering herstellen. Dafür werden zwei Geräte benötigt, entweder ein Smartphone oder einen mobilen WLAN-Hotspot. Das Mobiltelefon oder der Hotspot ist dann praktisch das Modem.

Fazit

Die Ansprüche an elektrische Geräte werden immer höher. Ein Smartphone ist heute mehr als nur ein Telefon. So verhält es sich auch mit einem Tablet. Diese Geräte sind speziell für den mobilen Einsatz konzipiert. Wenn Sie nicht nur

mit Ihrem Tablet auf der Couch liegen wollen und Filme streamen möchten, dann sollten Sie sich gleich zum Kauf eines Tablets mit SIM-Karten-Fach, sogenannte LTE-Tablets, entscheiden. Dann sind Sie unabhängig von Hotspots und können sogar von unterwegs aus damit telefonieren. Schließen Sie das von vornherein aus, dann reicht auch ein Tablet mit WLAN aus.

Einen PC selbst zusammen bauen

Einen PC selbst zusammen bauen

Viele Menschen greifen auf die verschiedenen Angebote an Komplett-PCs zurück, da diese weniger Arbeit und Fachwissen erfordern. Doch in den meisten Fällen hat man bei solchen Computern keinen Einfluss auf die verbauten Komponenten, so dass hier oftmals billige Komponenten mit hochwertigen vermischt werden um die Preise stabil zu halten. Für weniger Geld kann man sich in der Regel bessere und leistungsstärkere Systeme selber zusammenstellen und auch selber zusammenbauen. Denn der Zusammenbau eines Computers ist kein Hexenwerk und kann von jedem schnell und einfach gelernt werden. Mit einem einfachen Kreuzschlitz-Schraubendreher und einer kleinen Spitzzange lässt sich ein solcher Computer bereits zusammenbauen. Sind also alle Komponenten erworben, kann man sofort mit dem Zusammenbau anfangen.

Den Arbeitsplatz vorbereiten

Um einen Computer zusammenzubauen kann praktisch jeder Platz verwendet werden. Wichtig ist hierbei vor allem, dass alle Komponenten in direkter Reichweite

liegen, der Computer auf einer ebenen Fläche positioniert werden kann und man eine gute Ausleuchtung der Arbeitsfläche erreicht. Viele Menschen bauen deshalb ihren Computer direkt auf dem Herd zusammen, da hier über den Dunstabzug eine starke und direkte Beleuchtung vorhanden ist. Hier sollte man aber für eine Unterlage sorgen, damit der Tower den Herd nicht zerkratzen kann.

Den Tower vorbereiten

Hat man einen neuen Tower für seinen neuen PC gekauft, sollte man diesen nun aufschrauben. Hierbei müssen in der Regel an der Rückseite des Towers vier Schrauben gelöst werden, dann können beide Seitenteile ohne Probleme abgezogen werden. Nun kann man den Tower so auf die Seite legen, dass man gut im Innenraum arbeiten kann.

Das Mainboard einbauen

Zunächst einmal sollte man das Mainboard aus der Verpackung nehmen und die Beschreibung des Mainboards in greifbare Reichweite legen. Dies erleichtert spätere Einbauschritte und erspart lästiges Suchen. Nun sollte man den Tower dahingehend untersuchen, ob die Schraublöcher im Tower selber bereits isoliert sind, oder die Isolationen des Mainboard Herstellers genutzt werden müssen. Denn ohne diese Isolation würde das Mainboard direkt auf dem Metall des Towers liegen, was in der Regel einen Kurzschluss und eine Beschädigung des Mainboards zur Folge haben würde. Nun kann man das Blech, in welches die verschiedenen Anschlüsse gestanzt wurden, an der Rückseite des Towers befestigen. Auch wenn bereits ein solches Anschlussblech vorhanden ist, sollte dies immer ausgetauscht werden, da nur das Blech des Mainboards exakt zu den Anschlüssen auf diesem passt. Ist das Anschlussblech eingesetzt, kann nun das Mainboard befestigt werden. Hierzu muss das Mainboard so in den Tower gelegt werden, dass die Anschlüsse hinten in das Lochblech hinein ragen und die Schraublöcher des Mainboards mit denen des Towers übereinstimmen. Bei der Befestigung der Schrauben hilft hier ein magnetischer Schraubendreher, aber auch mit einem herkömmlichen Schraubendreher ist dieser Schritt problemlos möglich. Man sollte allerdings darauf achten die Schrauben nicht zu fest anzuziehen, um Beschädigungen zu vermeiden. Die große Anzahl an Schrauben hält das Mainboard so problemlos in Position.

Den Prozessor einbauen – ein wichtiger Schritt mit Fingerspitzengefühl

Den Prozessor vorsichtig einsetzen um keine Pins zu beschädigen
Den Prozessor vorsichtig einsetzen um keine Pins zu beschädigen

Um den Prozessor einbauen zu können, muss man auf dem Mainboard zunächst die entsprechende Klemme lösen und die Abdeckung hochklappen. Nun ist Fingerspitzengefühl gefragt. Achten sollte man beim Einsetzen des Prozessors vor allem auf vorhandene Markierungen auf Prozessor und Mainboard, um diesen in der richtigen Position einzusetzen. Ein goldener Pfeil oder Punkt sorgt hier für Hilfe. Ist der Prozessor eingesetzt und liegt sicher und fest in der entsprechenden Aussparung auf dem Mainboard, kann nun die Klemme wieder geschlossen werden. Dies benötigt in der Regel ein wenig mehr Kraftaufwand. Da der Prozessor ohne Kühler nicht lange überleben würde, muss dieser nun ebenfalls eingebaut werden. Hier sollte man darauf achten, ob die Unterseite des Lüfters mit einer Leitpaste versehen wurde. Moderne Lüfter liefern diese Paste oftmals bereits aufgebracht mit, so dass man hier keine Arbeit mehr hat. Der Lüfter muss nun über dem Prozessor angebracht und entsprechend der Anleitung befestigt werden. Ein Blick in die Anleitung des Mainboards hilft hier dabei den passenden Anschluss für den Prozessorlüfter auf dem Mainboard zu finden und das entsprechende Kabel vom Lüfter dort anzuschließen.

Das Netzteil einbauen – nur vier Schrauben nötig

Nachdem der Prozessor eingebaut wurde, kann man sich dem Netzteil zuwenden. Dieses wird in der Regel in den entsprechenden Schacht oben an der Rückseite des Towers geschoben und von hinten verschraubt. So bleibt das schwere Netzteil sicher in Position und kann die gewünschte Leistung liefern. Das größte Kabel, bzw. der größte Anschluss am Kabelbaum des Netzteils ist in der Regel für die Stromversorgung des Mainboards zuständig. Ein Blick in die Dokumentation des Mainboards verrät, mit welchem Kabel das Netzteil angeschlossen werden sollte. Je nach Mainboard kann es hierbei notwendig sein, zwei Stecker miteinander zu verbinden und diese gemeinsam in den Steckplatz des Mainboards zu stecken. Dies ist jedoch weder kompliziert, noch schwierig, so dass dieser Schritt schnell erledigt sein sollte.

Den Arbeitsspeicher installieren – nichts einfacher als das

Ram / Arbeitsspeicher passt nur in einer Richtung auf das Mainboard
Ram / Arbeitsspeicher passt nur in einer Richtung auf das Mainboard

Auch der Arbeitsspeicher stellt beim Einbau kein Problem dar. Die entsprechenden Slots für den Speicher können sowohl leicht erkannt, als auch bestückt werden. Einfach die Klemmen an den beiden Enden des Slots öffnen und den Arbeitsspeicher in der richtigen Ausrichtung in den Slot drücken. Auch hier kann ein wenig Kraft von Nöten sein. Sitzt der Arbeitsspeicher richtig, schnappen die Klemmen praktisch von selber ein und sollten nur noch einmal auf den stabilen Sitz überprüft werden.

Festplatten und Laufwerke einbauen und anschließen

Um optische Laufwerke einzubauen, müssen in der Regel Abdeckungen aus der Front des Towers entfernt werden. Dies ist von innen jedoch leicht möglich. Das Laufwerk wird nun von vorne in den Tower geschoben, so dass es bündig mit diesem abschließt. Anschließend kann man das Laufwerk von der einen Seite aus mit zwei Schrauben befestigen. Festplatten hingegen werden von innen in die entsprechenden Halter geschoben und ebenfalls mit zwei Schrauben befestigt. Die notwendigen SATA-Kabel und die Stromkabel können nun einfach eingesteckt und mit dem Mainboard verbunden werden. Ist dies geschehen, sollte man den Tower einmal aufrecht stellen und die Laufwerke und Festplatten auch von der anderen Seite aus festschrauben. Somit bleibt alles fest an seinem Platz und kann nicht herum rutschen.

Die Grafikkarte – einfaches Stecksystem mit Tücken

Grafikkarten einstecken - an die Stromzufuhr bei Leistungsstarken denken
Grafikkarten einstecken – an die Stromzufuhr bei Leistungsstarken denken

Um die Grafikkarte einbauen zu können, müssen aus der Rückseite des Towers eine oder mehrere kleine Abdeckungen entfernt werden. Diese sind oftmals angeschraubt und müssen dem entsprechend erst einmal gelöst werden. Die Grafikkarte kann nun einfach in den entsprechenden PCI-Anschluss eingerastet werden. Hier muss man nur auf die Klemme achten, welche zuvor am Anschluss gelöst werden muss. Besonders leistungsstarke Grafikkarten benötigen darüber hinaus meistens noch einen eigenen Stromanschluss. Hier hat es sich als hilfreich erwiesen, die Karte zunächst mit dem Netzteil zu verbinden, ehe man die Karte einbaut. Dies verhindert, dass man blind nach den entsprechenden Anschlüssen an der Grafikkarte suchen muss.

Die Feinarbeit – die Frontanschlüsse anschließen

Eigentlich würde der Computer bereits funktionieren, doch anschalten lässt er sich noch nicht. Denn die an der Front des Towers liegenden Anschlüsse wie Ein-Aus-Schalter, Resetschalter, USB-Anschluss und Soundanschluss müssen noch mit dem Mainboard verbunden werden. Da diese Kabel in kleinen Steckanschlüssen enden, kommt hier die Zange zum Einsatz. Die richtige Position der Anschlüsse kann man hierbei ganz leicht der Beschreibung des Mainboards entnehmen. Sind all die Anschlüsse korrekt verkabelt, ist der PC einsatzbereit.

Praktische Tipps

Es hat sich bewährt die Kabel im inneren des Computers nach Möglichkeit mit Kabelbindern zu fixieren und zu verbinden. Nicht nur, dass so dieÜbersichtlichkeit im Inneren des Computers deutlich ansteigt, auch der Luftstrom für die Kühlung im Inneren des Computers wird so deutlich verbessert. Verfügt der Tower über weitere, eingebaute Lüfter können diese in der Regel ebenfalls über das Mainboard angeschlossen werden. Hierfür einfach in der Beschreibung nach den entsprechenden Anschlüssen suchen.

Was ist Ethereum?

Was ist Ethereum?

Die Blockchain-Technologie wird meistens mit Bitcoin in Verbindung gebracht —doch es gibt weitaus mehrere weitere Anwendungen, die über digitale Währungen weit hinausgehen. Bitcoin ist tatsächlich nur eine von mehreren Tausend Anwendungen, welche von der Blockchain-Technologie heute genutzt werden. Die Building Blockchain-Anwendungen erforderten noch bis vor Kurzem umfangreiches Know-how in den Bereichen Kryptografie, Codierung, Mathematik sowie mehrere erhebliche Ressourcen. Das hat sich allerdings geändert. Bislang unbekannte Anwendungen, von digital erfassten Immobilienvermögen über elektronischen Abstimmungen bis hin zu Handel und Compliance, werden mittlerweile aktiv entwickelt und extrem schnell umgesetzt. Dazu stellt Ethereum Entwicklern die richtigen Werkzeuge zur Verfügung, damit sie dezentrale Anwendungen erstellen können.

Eignet sich Ethereum auch für Anfänger?

Ethereum ist zunächst eine offene, auf Blockchain-Technologie basierende Softwareplattform, welche es Entwicklern ermöglicht, eine dezentrale Anwendung zu erstellen und diese einzusetzen.

Sind Ethereum und Bitcoin ähnlich? Einerseits schon, anderseits wiederum nicht.

Ethereum ist wie Bitcoin ein öffentliches dezentrales Blockchain-Netzwerk.

Obwohl es zwischen den beiden mehrere signifikante technische Unterschiede gibt, ist der essenzielle Unterschied, dass sich Ethereum und Bitcoin in Bezug auf Fähigkeit und Zweck erheblich voneinander unterscheiden. Bitcoin stellt eine spezielle Anwendung der Blockchain-Technologie zur Verfügung: Das ist ein elektronisches Peer-to-Peer System, welches online Zahlungen mit Bitcoin ermöglicht. Die Bitcoin-Blockchain wird hierfür verwendet, um den Besitz der Bitcoins zu verfolgen. Eine Ethereum-Blockchain richtet sich hingegen auf die Ausführung der Programmierverschlüsselung einer dezentralen Anwendung aus. Miner suchen in der Ethereum-Blockchain nicht nach Bitcoin — sie möchten

Ether verdienen, eine Krypto-Token Art, von der das Netzwerk angetrieben wird. Neben handelbaren virtuellen Währungen wird Ether ebenso von

Anwendungsentwicklern angewendet, um Dienstleistungen und Transaktionsgebühren im Ethereum-Netzwerk bezahlen zu können.

Es gibt auch eine weitere Art von Token, die angewendet wird, um Mining-Gebühren zu bezahlen, im Falle wenn Transaktionen im eigenen Block aufgenommen werden. Dieses bezeichnet man als Treibstoff, wobei jede Smart Contract Ausführung voraussetzt, dass eine bestimmte Treibstoffmenge mitgeschickt wird, um Miner dazu zu veranlassen, dieses in die Blockchain aufzunehmen.

Smart Contract: Was versteht man darunter?

Smart Contract bezeichnet einen Ausdruck, mit dem man einen Computercode beschreibt, der den Austausch von Inhalten, Geld, Aktien, Eigentum oder weitere Wertsachen erleichtern kann. Wird ein Smart Contract auf der Blockchain ausgeführt, so wird er zu einem selbstfahrenden PC-Programm, welches automatisch ausgeführt wird, sobald alle notwendigen Bedingungen erfüllt sind. Blockchain Smart Contracts laufen exakt so, wie sie programmiert wurden — ohne Ausfallzeiten, Zensur, Eingriffe Dritter oder Betrug.

Obwohl jede Blockchain problemlos Code verarbeiten, sind die meisten ziemlich eingeschränkt. Ethereum ist hingegen anders. Es macht keine begrenzten Angebote: Es ermöglicht Entwicklern, Anwendungen nach beliebiger Art zu entwickeln. Das heißt, dass Entwickler mehrere Tausend von verschiedenen Anwendungen entwickeln können, die über das, was wir bisher kennen, weit hinausgehen.

Ethereum als virtuelle Maschine

Blockchain-Anwendungen konnten vor der Schaffung von Ethereum eine eher begrenzte Anzahl von Anwendungen verwirklichen. Bitcoin und weitere Kryptowährungen wurden zum Beispiel nur als Peer-to-Peer Betrieb von digitalen Währungen entwickelt. Aus diesem Grund standen Entwickler vor einem Problem. Sie hatten zwei Optionen: Entweder erweitern Sie den Funktionsumfang, der von Bitcoin und weiteren Anwendungen angebotenen wird, was zeitaufwendig und durchaus kompliziert ist, oder Sie bemühen sich eine neue Blockchain-Anwendung und eine komplett neue Plattform zu entwickeln.

Der Schöpfer von Ethereum, Vitalik Buterin, konnte dieses Dilemma erkennen und daraus einen neuen Ansatz entwickeln.

Die Ethereum Virtual Machine (EVM), die Kerninnovation von Ethereum, ist eine komplettierte Turing-Software und läuft im Ethereum-Netzwerk.

Dadurch hat jeder, der ausreichend Speicher und Zeit zur Verfügung hat, die Möglichkeit alle Programme auszuführen — ganz abgesehen von der Programmiersprache. Die EVM macht den Erstellungsprozess von Blockchain-Anwendungen so effizient und einfach wie niemals zuvor. Anstatt eine komplett neue Blockchain für jede neue Anwendung erstellen zu müssen, ist

durch Ethereum die Erstellung von Tausenden unterschiedlicher Möglichkeiten zur Anwendung auf einer Plattform ermöglicht worden.

Wofür kann ETH verwendet werden?

Durch Ethereum können Entwickler dezentrale Anwendungen erstellen und diese implementieren. Eine dezentrale Anwendung — Decentralized Application (kurz Dapp) — dient ihren Nutzern zu einem gewissen Zweck. Bitcoin beispielsweise ist ein Dapp, der seinen Usern ein elektronisches Geldsystem zur Verfügung

stellt, um BTC-Zahlungen online zu tätigen. Dezentrale Anwendungen bestehen aus Verschlüsselungen, welchen in Blockchain-Netzwerken laufen – deswegen gibt es keine zentrale oder einzelne oder Stelle, von der sie gesteuert werden.

Jede zentralisierte Dienstleistung kann mit ETH dezentralisiert werden. Stellen Sie sich all die Vermittlungsdienste vor, die in mehreren Hundert

unterschiedlichen Branchen tätig sind: offensichtliche Dienste wie Darlehen von Banken oder Vermittlungsdienstleistungen, welche seltener in Betracht gezogen werden, wie zum Beispiel dem Registrieren von Abstimmungssystemen, Eigentumstiteln, der Vorschrifteneinhaltung und vieles mehr.

ETH kann ebenso zum Aufbau von autonomen dezentralen Organisationen (DAO) verwendet werden. Eine dezentrale autonome Organisation ist eine Organisation ohne eine einzige Führungskraft. Sie läuft auf Basis eines Programmiercodes, auf einer Smart-Contract-Sammlung, die auf der ETH-Blockchain geschrieben sind. Durch den Code werden die Strukturen und Regeln eines traditionellen Unternehmens ersetzt, wodurch die Notwendigkeit von einer zentralen Kontrolle und Mitarbeitern entfällt. Eine DAO gehört allen, die Token kaufen, allerdings bedeutet das Token nicht Eigentum und Kapitalaktien, Token fungieren eher als Stimmrechte.

Ethereum wird ebenso als Plattform für die Einführung von weiteren Kryptowährungen verwendet. Aufgrund des ERC20-Token-Standards, das von der ETH-Stiftung definiert wurde, können etliche Entwickler ihre individuellen Versionen des Tokens ausgeben und mit einem ICO (Initial Coin Offering) Geldsummen einsammeln. Die Emittenten des Tokens setzen in dieser Fundraising-Strategie einen bestimmten Geldbetrag fest, den sie verdienen wollen, stellen ihn in einem Crowdsale zum Angebot und erhalten dafür Ether.

Auf der Ethereum-Plattform wurden in den letzten Jahren mittels ICOs sogar Milliarden von US-Dollar eingesammelt. Ein ERC20-Token wird als eine der wertvollsten digitalen Währungen der Welt (EOS) bezeichnet.

ETH hat ebenso einen weiteren Token-Standard (ERC721) entwickelt, um einzigartigen Vermögenswerten folgen zu können. Einer der häufigsten Anwendungsbereiche für derartige Token sind digitale Sammelobjekte: Infrastruktur ermöglichtes, das Eigentum an knappen Digital-Gütern nachzuweisen. Derzeit werden viele Spiele mit dieser Technologie entwickelt, wie zum Beispiel der Erfolg von CryptoKitties — ein Spiel, bei dem die Spiele digitale Kätzchen züchten und sammeln kann.

Was macht einen guten Monitor aus?

Was macht einen guten Monitor aus?

Vielleicht sind Sie gerade dabei, sich einen Desktop- oder Notebook-PC auszusuchen, oder Sie haben bereits einen Laptop, sind aber nicht ganz zufrieden mit der Bildschirmfläche, die er bietet – so oder so ist es an der Zeit, sich einen Überblick über die umfangreiche Welt der Computermonitore zu verschaffen, damit Sie herausfinden können, welche(s) Produkt(e) genau Ihren Bedürfnissen entspricht.

Typen von Monitoren

Oberflächlich betrachtet scheint die Bildschirmgröße neben der Marke der einzige Unterschied zwischen Monitoren zu sein. Bevor wir uns damit beschäftigen, was sich hinter den einzelnen Bildschirmen verbirgt und was Ihr PC möglicherweise braucht, um die richtigen Ergebnisse zu erzielen, ist es am besten, die Arten von Monitoren sowie die verschiedenen Formen und Größen, in denen sie erhältlich sind, vorzustellen.

Tipp: Wer aufmerksam die Technik Nachrichten liest, bekommt Nuerungen und Produktvorstellungen mit

Die Entwicklung der Computermonitore

Die ersten Monitore, die früher als Video-Display-Units (VDUs) bezeichnet wurden, verfügten über eine Beleuchtung, damit Computeringenieure den Betriebszustand ihrer Komponenten überwachen konnten und wussten, ob ihre Geräte ordnungsgemäß funktionierten oder nicht. Mit der Weiterentwicklung der Technologie haben sich die Computermonitore in Bezug auf die Anzeigemöglichkeiten und die Art und Weise, wie sie dies tun, stark weiterentwickelt.

Um es einfach auszudrücken, hängt der Monitor, den Sie kaufen müssen, davon ab, wofür Sie Ihren Computer hauptsächlich verwenden werden, und dies kann in drei übergreifende Kategorien unterteilt werden: allgemeine/geschäftliche Nutzung, professionelle Visualisierung und Spiele. Nicht jeder Monitor ist gleich, da bestimmte physikalische Eigenschaften und integrierte Technologien eines bestimmten Produkts möglicherweise die besten Ergebnisse für die Ausführung von Spieleanwendungen im Gegensatz zu Office-Tools oder professionellen Grafikdesign-/Videobearbeitungsprogrammen liefern.

Zu berücksichtigende Merkmale

Oberflächlich betrachtet sind PC-Displays einfach nur Bildschirme, die verschiedene Bilder darstellen – aber hier gibt es natürlich viel mehr zu beachten, als man auf den ersten Blick sieht. Jetzt ist es an der Zeit, das Innere des Monitors zu betrachten, um zu sehen, wie die Anzeigehardware eines Computers funktioniert.

LCD vs. LED

Die Unterschiede zwischen LCD- und LED-Technologie sind ein wichtiger Faktor bei der Entscheidung, was für Ihr Endziel und Ihr Budget geeignet ist.

LCD
Die Flüssigkristallbildschirm-Technologie (LCD) wurde zuerst für Fernsehgeräte entwickelt, kam aber erst Mitte der 90er Jahre für Computermonitore auf den Markt. Der Name kommt von der Tatsache, dass diese Bildschirme aus zwei Glasscheiben bestehen, zwischen denen sich eine Flüssigkeit befindet. Von dort aus wird der Bildschirm in Tausende und Abertausende (manchmal Millionen) von Zeilen und Spalten unterteilt, besser bekannt als Pixel (ein Begriff, der in den 1960er Jahren als Abkürzung für „picture element“ geprägt wurde).

Die Hardware-Teile, die das Bild auf dem Bildschirm Ihres LCD-Monitors ausgeben, werden als Kaltkathoden-Leuchtstofflampen (CCFLs) bezeichnet. Diese Lampen verleihen Ihrem LCD-Monitor eine Lebensdauer von etwa 30.000 Stunden. Da die Technologie älter ist, sind diese Produkte normalerweise dicker und schwerer. Nur wenige von ihnen unterstützen Auflösungen über Full HD (1920×1080, Breite mal Höhe), und auch der Farbkontrastbereich kann manchmal eingeschränkt sein. Wenn Sie sich Gedanken über Ihren ökologischen Fußabdruck machen, ist die Quecksilberverschmutzung, die diese Monitore ausstoßen können, etwas, mit dem Sie sich am Ende des Lebenszyklus des Produkts befassen müssen.

Das ist ein negativer Effekt, der auftritt, wenn Sie Ihren Bildschirm eingeschaltet lassen und das zuletzt angezeigte Bild leicht auf dem Bildschirm verbleibt – auch wenn er ausgeschaltet ist.

LED
Technisch gesehen sind LED-Displays auch LCD-Monitore, da sie die gleiche Flüssigkeit zwischen ihren zweiteiligen Glasscheiben haben. Der Unterschied liegt in der Hardware, die verwendet wird, um das Bild auszustrahlen. Anstelle der Leuchtstofflampen eines LCD-Monitors werden Leuchtdioden (LEDs) verwendet. Dadurch sind LED-Monitore heller und verbrauchen weniger Strom als LCD-Bildschirme und haben letztlich eine Lebensdauer von etwa 50.000 Stunden.

Die Technologie für Leuchtdioden entstand in den frühen 1960er Jahren und konnte zunächst nur rote Farbe erzeugen. Natürlich hat sich die Farbfähigkeit dieser Dioden weiterentwickelt, aber die Effizienz und das hohe Leistungsniveau sind gleich geblieben. Auf dem Papier sind LED-Monitore aufgrund ihres beeindruckenden Farbkontrasts und ihrer Bildqualität zu einem höheren Preis erhältlich. Wenn Sie einen Bildschirm zum Spielen suchen, müssen Sie sich für LED entscheiden, da die Reaktionszeit im Vergleich zu LCD-Displays deutlich schneller ist.

Durch die LED-Technologie sind die meisten dieser Produkte außerdem dünner und leichter, sodass sie schnell und einfach transportiert und installiert werden können. Eine Sache, auf die Sie achten müssen, ist, dass LED-Monitore ein höheres Risiko des Einbrennens haben, also stellen Sie sicher, dass Sie einen Bildschirmschoner haben oder schalten Sie sie aus, wenn sie nicht in Gebrauch sind.

Auflösung und Größe

Bei der Suche nach Ihrem nächsten Monitor wird die Bildschirmgröße höchstwahrscheinlich das erste sein, worauf Sie achten. Wie bei jedem Display der Unterhaltungselektronik wird die Bildschirmgröße diagonal von der unteren Ecke zur gegenüberliegenden oberen Ecke oder umgekehrt gemessen. Derzeit reichen die Bildschirmgrößen auf Newegg bis zu 80″, aber der durchschnittliche Bereich, den Sie beim Kauf im Auge behalten sollten, liegt zwischen 19″ und 43″. Zusammen mit den in den vorherigen Abschnitten erwähnten unterschiedlichen Graden der Panel- und Hintergrundbeleuchtungstechnologie steigen die Bildschirmgröße und die Gesamtkosten eines Monitors im Allgemeinen gleichzeitig.

Jetzt ist ein guter Zeitpunkt, um das Bildseitenverhältnis von Monitoren und dessen Beziehung zu Bildschirmauflösungen vorzustellen. Definitionsgemäß ist das Seitenverhältnis die Breite eines Bildschirms im Verhältnis zur Höhe des Bildschirms. Beispielsweise waren einige der ersten verkauften Fernsehgeräte fast quadratische Bildschirme mit einer etwas größeren Breite als Höhe, was ein Seitenverhältnis von 4:3 ergab. Heute werden Auflösungen von Computerbildschirmen (obwohl sie dem Seitenverhältnis absolut ähnlich sind) in Breite mal Höhe in Pixeln gemessen und dargestellt.

1987 wurden der Welt erstmals Monitore vorgestellt, die 4:3-Bildschirme mit einer Auflösung von 640×480 Pixeln enthielten. Derzeit verwenden die meisten Computermonitore Breitbildformate und Full-HD-Auflösungen, wobei das beliebteste 16:9-Format mit 1920×1080 Pixeln ist. Durch die Verdoppelung der Breiten- und Höhenabmessungen innerhalb eines Seitenverhältnisses können Sie schärfere Auflösungen (klarere Bilder) erhalten, da mehr Pixel in das gleiche Seitenverhältnis gepackt werden. Natürlich haben sich diese Seitenverhältnisse und Auflösungen durch weitere Variationen, wie z. B. gebogene Displays und UltraWide-Monitore, weiterentwickelt.

Arten von Panels

Nachdem wir nun ein Verständnis für Flüssigkristallbildschirme und die beiden Arten von Hintergrundbeleuchtungstechniken haben, die dahinter stehen, ist es an der Zeit, sich mit den verschiedenen Panel-Typen von LCD-Monitorbildschirmen zu befassen und wie sie sich auf Ihre Computeranforderungen beziehen. Nur weil bestimmte Panel-Typen mehr kosten als andere, heißt das nicht, dass teurer generell besser ist. Es kommt darauf an, welche Eigenschaften des Paneltyps am besten für den allgemeinen Gebrauch, für Spiele oder für professionelle Video-/Bildbearbeitungsanwendungen geeignet sind, was im Endeffekt von der Farbwiedergabetechnologie, den Betrachtungswinkeln, den Reaktionszeiten und den Bildwiederholraten abhängt.

TN

Wenn Sie ein Hardcore-PC-Gamer sind, dann sind TN-Panels (Twisted-Nematic) vielleicht Ihr erster Bildschirm der Wahl. Computermonitore mit TN-Panels bieten die höchsten Bildwiederholraten und schnellsten Reaktionszeiten. Als eine der ältesten Anzeigetechnologien erzeugen TN-Panels das Bild durch die Verwendung von lichtdurchlässigen nematischen Flüssigkristallen in Glasplatten, einem Farbfilter und zwei linierten Filtern (einer vertikal, der andere horizontal). Aufgrund des Polarisationseffekts, der in TN-Panels auftritt, haben diese Arten von Monitoren die schlechteste Farbdarstellung und die schlechtesten Betrachtungswinkel. Auf der anderen Seite sind diese Monitore die erschwinglichsten Monitore, was sie perfekt für Gamer macht, die bereits eine Menge Geld für ihre Gaming-Battlestation ausgegeben haben.

Auch hier sollten TN-Panels die erste Wahl sein, wenn Sie die höchste Leistung aus Ihrem Gaming-PC herausholen wollen. Zum jetzigen Zeitpunkt sind TN-Panels die einzigen Monitore, die eine Bildwiederholrate von 240 Hz unterstützen. Das bedeutet, wenn Ihr System und Ihre Grafikkarte 240 Bilder pro Sekunde erzeugen und ausgeben können, wird der Monitor im Gegenzug 240 Bilder pro Sekunde wiedergeben und damit das schnellste und flüssigste visuelle Spielerlebnis auf dem Markt schaffen.

IPS

Im Vergleich zu TN-Panels bieten IPS-Panels (In-Plane-Switching) die besten Blickwinkel und die genauesten Farben. IPS-Panels wurden speziell entwickelt, um die Einschränkungen traditioneller TN-Panels auszugleichen. IPS-Computermonitore sind perfekt für Grafikdesigner oder Kameraleute geeignet, da die inneren Kristallflüssigkeiten ihre Ausrichtung auf einer einzigen Ebene anpassen (daher der Name), um aus jedem Betrachtungswinkel genaue, naturgetreue Farben zu zeigen.

Leider ist nichts wirklich perfekt, da die meisten IPS-Monitore der Einstiegsklasse nicht die gleichen schnellen Reaktionszeiten und Bildwiederholraten haben wie PC-Monitore mit TN-Panel. Außerdem sind IPS-Monitore aufgrund ihrer hohen Bild- und Farbqualität und ihres hervorragenden Betrachtungserlebnisses in der Regel teurer als TN-Panels. Nichtsdestotrotz kann ein IPS-Monitor mit der richtigen adaptiven Synchronisierungstechnologie (siehe G-SYNC und AMD FreeSync unten) und den richtigen Computerspezifikationen möglicherweise die beste Lösung für großartig aussehende, leistungsstarke Spiele sein.

OLED im Kommen

Die Technologie der organischen Leuchtdioden (OLED), die in vielen aktuellen Fernsehern und Smartphones zu finden ist, ist derzeit für Computermonitore in Arbeit. Die OLED-Bildschirmtechnologie besteht aus kohlenstoffbasierten Materialien, die Licht emittieren, wenn sie mit Strom betrieben werden. Insgesamt benötigen OLED-Displays keine Hintergrundbeleuchtung oder Filter, um ihre Farben und bewegten Bilder zu erzeugen. Sie sind auch großartig für Hersteller, weil sie einfach herzustellen und physisch leicht sind, um einfach exportiert und geliefert werden zu können.

Die Hauptattraktion von OLED-Monitoren wird sein, dass jedes Pixel des Displays seine eigene Lichtquelle hat, um letztendlich schwärzere Schwarztöne und wahrheitsgetreuere Farben auf der ganzen Linie zu erzeugen. 2021 könnte das Jahr sein, in dem wir mehr über diese Technologie für Computermonitore hören, also stellen Sie sicher, dass Sie hier für alle Updates zurückkommen.

VA

Bei den in den 90er Jahren entwickelten VA-Panels (Vertical-Alignment) befinden sich die Flüssigkristallzellen in einer vertikalen Position, wenn das Display nicht verwendet wird. Sobald Spannung an das Display angelegt wird, verschieben sich die Kristalle in eine horizontale Ausrichtung, um Licht und letztendlich Ihr Bild durchzulassen. Ähnlich wie IPS-Panels wurden VA-Computermonitore entwickelt, um eine alternative Option zu den Vorgängermonitoren mit TN-Panels zu bieten.

Mit anständigen Bildwiederholraten (in den meisten Fällen nicht ganz auf TN-Niveau) haben VA-Monitore mit ihren vielseitigeren Pixeln einen besseren Farbkontrast und eine größere Bildtiefe. Eine höhere Bittiefe bedeutet, dass mehr Farben auf jedem Pixel verwendet werden können. Obwohl VA-Monitore bessere Betrachtungswinkel als TN-Panels haben (in der Regel nicht so sehr wie IPS), sind sie aufgrund ihrer langsamen Reaktionszeiten besser für den allgemeinen Gebrauch geeignet, z. B. für Home-Streaming oder Büroanwendungen.

 

 

Mobilitätshilfen für Senioren – Augmented Reality und mehr für die Pflegebranche

Mobilitätshilfen für Senioren – Augmented Reality und mehr für die Pflegebranche

Für viele Menschen sind Bewegung und Mobilität Faktoren, die ihre Lebensqualität entscheidend beeinflussen. Nur wer sich regelmäßig bewegt, bleibt fit, vital und mobil. Wenn die Mobilität mit zunehmendem Alter immer weiter eingeschränkt wird, ist es wichtig, die Mobilität und die damit verbundene Selbstständigkeit und Lebensqualität so lange wie möglich aufrecht zu erhalten. Ab einem bestimmten Punkt sind jedoch oftmals Hilfsmittel nötig und sinnvoll.

Senioren, die in ihrer Gehfähigkeit eingeschränkt sind, können auf verschiedene Mobilitätshilfen zurückgreifen. Zur Überwindung von Treppen oder Stufen können hierzu Treppenlifte oder wahlweise Rampen genutzt werden.

Für Menschen, die körperlich nicht mehr auf Hilfsmittel verzichten können, sollte auch das Umfeld so barrierefrei wie möglich gestaltet werden. Dies erleichtert es der pflegebedürftigen Person enorm, ihren Alltag zu bewältigen. Aber auch pflegende Angehörige oder Pflegekräfte können Aufgaben des täglichen Bedarfs so deutlich einfacher handhaben.

Hierfür werden zunehmend neue Technologien und Methoden eingesetzt. Dank Augmented Reality (AR) ist es zum Beispiel möglich, einen individuellen Treppenlift in den eigenen vier Wänden digital zu betrachten und an die eigenen Wünsche und Bedürfnisse anzupassen – dies alles noch vor dem Kauf des Geräts. Hier unser Artikel zu VR / Virtual Reality für alle die nicht wissen um was es geht.

Der Weg zum Treppenlift in den eigenen vier Wänden

Eine der Mobilitätshilfen für Senioren im Alltag stellt definitiv der Treppenlift dar.

Viele Senioren leiden unter Gelenk- und Muskelproblemen. Diese verursachten Schmerzen beim Treppensteigen und jeder Schritt wird zur Qual. Oft werden dadurch Räume in nicht ebenerdigen Etagen unzugänglich, weil die Anstrengung und die Sturzgefahr überwiegen. Noch schlimmer ist es, wenn Sie beispielsweise im vierten Stock zu Hause sind und es keine Alternative zur Treppe gibt.

In all diesen Fällen ist die Anschaffung eines Treppenlifts oder Plattformlifts eine gute Idee. Treppenlifte werden nach Maß gefertigt und an der betreffenden Treppe installiert. Für Rollstuhlfahrer gibt es spezielle Plattformlifte. Beide Lifte können problemlos mit einer Hand bedient werden. Neben Rollstühlen können auch andere Lasten, wie Einkaufstaschen oder Möbel, mit einem Plattformlift transportiert werden.

Rampen können ebenfalls eingesetzt werden, um Rollstuhlfahrern das Überwinden von Stufen zu ermöglichen. Ebenfalls können diese für Menschen eingesetzt werden, die zwar gehen, aber keine Treppen mehr steigen können.

Neben Treppenliften und Plattformliften gibt es noch weitere Varianten, wie beispielsweise den Sessellift. Der Treppenlift mit Sitz befördert den Benutzer mit Hilfe eines Sitzes, der sich über Schienen an der Treppenwand nach oben bewegt, in höher gelegene Etagen.

Obwohl die Anschaffung eines solchen Lifts eine große Erleichterung darstellt, ist diese auch mit einigen Kosten verbunden. Es gibt unter Umständen jedoch die Möglichkeit einen Zuschuss zu beantragen. Ebenfalls können Lifte auch gemietet, anstatt gekauft werden – dies spart eventuell Geld.

Eine weitere Möglichkeit für Barrierefreiheit ist der Hausaufzug. Dank der platzsparenden, innovativen Antriebstechnik und der schmalen Kabine ist ein nachträglicher Einbau kein Problem. Wer sich für einen Hausaufzug entscheidet, kann nach Wunsch zwischen einem maßgeschneiderten Privataufzug, einem günstigeren Komfortaufzug und einer vertikal befahrbaren Plattform wählen.

Weiterführende Informationen zu verschiedenen Treppenliftmodellen, Preise und Finanzierung finden Sie auf dem Treppenlift Ratgeberportal treppenliftdirekt.de.

Mit Hilfe von Augmented Reality zum individuellen Treppenlift

Wer dringend einen Treppenlift benötigt oder sich einen Eindruck verschaffen möchte, wie der zukünftige Treppenlift in den eigenen vier Wänden aussehen würde, kann dies mit Hilfe eines 3D-Treppenliftkonfigurator tun. Dabei kommt die oben genannte AR-Technologie zum Einsatz.

Mit einer passenden App kann das passende Modell ganz einfach am Tablet oder Smartphone ausgewählt, personalisiert und in die häusliche Umgebung übertragen werden, ganz so als wäre der Lift bereits eingebaut. Dank moderner Technik und dreidimensionaler Bilder können Sie sich so einen sehr realistischen Eindruck verschaffen.

Neben einem detaillierten Eindruck bietet der Einsatz von Augmented Reality noch weitere Vorteile. So verkürzt sich zum Beispiel die Lieferzeit eines Treppenlifts von zehn auf zwei Wochen. Das liegt daran, dass das Treppenhaus und die Treppen bereits beim ersten Termin vermessen werden können.

Eine Visualisierung auf dem Tablet oder Smartphone zeigt, wie der zukünftige Treppenlift später im Haus aussehen wird. So wird schon im Vorfeld ein genaues Bild des eigenen Zuhauses skizziert und die Kaufentscheidung vereinfacht.

Mehr und mehr Digitalisierung in der gesamten Pflegebranche

Doch nicht nur der Kauf eines Treppenlifts wird mehr und mehr durch digitale Hilfsmittel erleichtert, mehr und mehr Mobilitätshilfen für Senioren erhalten vor und nach dem Kauf digitale Ergänzungen oder Unterstützung.

Zum Einsatz kommt hier oftmals die HoloLens Brille. Mit Hilfe dieser möchte das Unternehmen thyssenkrupp in Zukunft die gesamte Produktionskette digitalisieren. Alle Schritte vom Aufmaß bei Ihnen zu Hause, bis hin zur Fertigung.

Tyssenkrupp gilt als einer der führenden Hersteller von Treppenliften und anderen Mobilitätshilfen für Senioren.

Allgemeine Tipps für den Kühlschrankkauf

Allgemeine Tipps für den Kühlschrankkauf

Kühlschränke im Spiegel der Zeit – Wie andere technische Geräte auch, haben sich Kühlschränke in den letzten Jahrzehnten erheblich weiterentwickelt. Sie kühlen nun in verschiedenen Kühlzonen, können sich ideal auf die Bedürfnisse bestimmter Lebensmittel einstellen und bieten Zusatzfunktionen wie eine Abtauoption, einen Wasserspender sowie einen Eiswürfelspender. Insofern besticht ein hochwertiger Kühlschrank heute nicht nur durch eine hohe Qualität, sondern auch durch eine üppige Funktionsvielfalt sowie ein Maximum an Komfort. Wir erklären, was moderne Kühlschränke heute schon können und von welchen Extras Sie profitieren.

Eine Faustformel für die Platzermittlung

Ein zu kleiner Kühlschrank sorgt für eine ungewollte Askese, während ein zu großer Kühlschrank zu große Mengen an Energien beansprucht. Insofern sollte sich jeder Kunde vor dem Kauf eines Kühlschranks Gedanken über die nötige Kapazität machen. Die Verbraucherzentrale Rheinlandpfalz hilft bei der Entscheidung mit einer Faustformel weiter. Ihr nach benötigt ein Single einen Kühlschrank mit der Kapazität von 100 Litern. Für jede weitere Person im Haushalt kommen 50 Liter dazu, sodass nach dieser Formel eine fünfköpfige Familie einen Kühlschrank mit einem Stauraum von 300 Litern beansprucht.

Energiesparen leicht gemacht

Dass kleinere Kühlschränke geringere Energiemengen beanspruchen, ist allgemein bekannt. Doch auch die Energieeffizienzklassen helfen weiter. Ursprünglich gingen sie von A nach H, doch ist diese Wertung bereits obsolet geworden, weil der immer umweltbewusstere Kunde Haushaltsgeräte mit einem hohen Energieverbrauch mit Missachtung straft, sodass diese Haushaltsgeräte mit der

Zeit aus dem Verkehr genommen wurden. Somit ist die Energieeffizienzklasse A bei Kühlschränken heute die Norm. Wer sich selbst und der Umwelt etwas Gutes tun möchte, achtet deshalb lieber auf die Energieeffizienzklassen A+, A++ und A+++, denn mit jedem Plus lässt sich eine Energiemenge von ca. 20 % einsparen.

Warum nur zwischen Kühlfach und Eisfach unterscheiden?

Zugegeben, früher kannten Kühlschränke nur die Kühlung und Vereisung, doch im Laufe der Zeit sind weitere Entwicklungen hinzugekommen. So beherrschen fortschrittliche Kühlschränke auch die Kühlung bei annähernd 0 Grad, was empfindlichen Lebensmitteln wie Obst, Gemüse und Fisch zu einer noch längeren Haltbarkeit verhilft. Ob Biofresh, Vitafresh oder Longfresh, alle diese Begriffe bezeichnen eine solche Sonderkühlzone im Kühlschrank. Weitere Modelle unterscheiden bei der Sonderkühlzone sogar zwischen feucht und trocken, um weitere Haltbarkeitstage für die einzelnen Lebensmittel herauszuholen. So kühlen Obst, Früchte und Salate in der feuchten Sonderkühlzone am besten, während Fisch, Fleisch und Milch sich in der trockenen 0-Grad-Zone am wohlsten fühlt.

Das Eisfach ist nicht gleich Eisfach

Andere Modelle bieten ein Fach speziell für den Wein an, sodass der eigene Kühlschrank um ein Weinkühllager erweitert wird. Auch bei dem Eisfach lohnt sich ein differenzierter Blick, denn der Grad der Kühlung entscheidet signifikant über die Haltbarkeit der Produkte. So halten Eisfächer bei einer Minustemperatur von 6 Grad Celsius nur eine Woche frisch, während Eisfächer, die es auf eine Kühltemperatur von — 18 Grad Celsius bringen, die Woche in ein Jahr verwandeln.

Zahlreiche Sonderfunktionen für einen weiteren Nutzen und komfortablen Mehrwert

Neue Kühlschränke sind sogar an das Smart Home angeschlossen
Neue Kühlschränke sind sogar an das Smart Home angeschlossen

Eine digitale Temperaturanzeige ist ein nettes Gimmick und informiert passgenau über den jeweiligen Kühlungsgrad. Andere Modelle bieten einen Wasser- und einen Eiswürfelspender an. Gemeint ist damit die Möglichkeit, sich jederzeit ein gekühltes Grad Wasser einschenken zu können sowie sich an Eiswürfeln zu bedienen für den perfekten Sommerdrink. Andere Kühlschränke besitzen eine Kein-Geruch-Funktion, um die Übertragung strenger Gerüche von Lebensmitteln wie Fisch auf andere Lebensmittel zu verhindern.

LED-Leuchten wiederum simulieren Sonnenlicht im Sinne einer längeren Haltbarkeit, während eine antibakterielle Beschichtung mit dem Anspruch verfolgt wird, der Keimbildung entgegenzuwirken. Menschen mit einer gewissen Neigung zur Zerstreutheit profitieren von einem Warnton, wenn der Kühlschrank nicht richtig verschlossen wurde. Die Optionen Low-Frost und No-Frost beugen dem Abtauen vor. Während No-Frost dem Besitzer diese Arbeit vollständig abnimmt, reduziert Low-Frost die Frostbildung im Kühlschrank um immerhin 80 %.