Was ist Langwellen Funk – die Historie

Was ist Langwellen Funk – die Historie

Vor rund hundert Jahren entwickelten Pioniere wie Heinrich Hertz, Nikola
Tesla, Adolf Slaby, Ferdinand Braun, Alexander Popow und Guglielmo Marconi
die Funktechnik. Die ersten Sendeversuche über Land und See fanden auf der
Langwelle statt. Mittlerweile benutzt die Funktechnik ein breites Spektrum
von 50 Hz bis über 100 Ghz. Grund genug nachzusehen, was heute auf der
Langwelle los ist.

Mit dem Wort Rundfunk haben wir die erste Bezeichnung für einen auf
Langwelle arbeitenden Funkdienst, mit Deutschlandfunk den Namen eines
Senders bzw. eines Programms, das im Rahmen des Rundfunkdienstes an die
Öffentlichkeit gerichtet ist und von jedermann empfangen werden darf und
soll.

Der eigentliche Langwellenbereich umfasst Frequenzen von 30 kHz bis 300 kHz
und liegt zwischen dem Mittelwellenbereich (300 kHz bis 3 Mhz) und dem
Längstwellenbereich (3 kHz bis 30 kHz). Die breite Öffentlichkeit denkt an
Rundfunk und Deutschlandfunk, wenn sie das Wort Langwelle hört. Aber das ist
noch lange nicht alles.

Wie aus der Diensteübersicht zu erkennen, ist nur ein Teil der auf Langwelle
empfangbaren Signale für die Öffentlichkeit gedacht bzw. an sie gerichtet.
Sendungen des Festen- und Marinefunkdienstes sind privater Natur und nur für
bestimmte Empfänger gedacht, mit Ausnahme der Leerschleifen in denen
Sendestellen ihre Rufzeichen nennen.

Ausbreitung & Empfang

Signale auf Langwelle verbreiten sich sowohl über Bodenwelle wie auch
Raumwelle. Anders als im Mittelwellenband und erst recht im Kurzwellenband
ist die Dämpfung der Bodenwelle auf Langwelle relativ gering und führt je
nach Sendeleistung zu Reichweiten von 500 km und darüber. Die Raumwelle ist
auf Langwelle immer vorhanden, wenn auch je nach Jahres- und Tageszeit
unterschiedlich stark. In Übergangszonen kommen Boden- und Raumwelle etwa
gleich stark an, wobei sie sich je nach Laufzeitunterschied gegenseitig
ergänzen oder auslöschen, es kommt zu Signalschwund. Diese Übergangszone
liegt bei 500 bis 900 km. Darüber hinaus versorgt die Raumwelle noch
Bereiche bis 1500 und 1800 km direkt, das heißt mit einer einzigen
Reflektion in der Ionosphäre. Langwellen dringen erheblich in den Boden ein,
können übliche Gebäude durchdringen und reichen sogar bis zu mäßigen Tiefen
in Meerwasser.

Von diesen Eigenarten der Ausbreitung profitieren eben die oben genannten
Funkdienste. Der Rundfunkdienst, indem er ein flächendeckendes,
grenzüberschreitendes Landesprogramm ausstrahlen kann (auf Mittelwelle ist
das unmöglich), der Funknavigationsdienst sowie der Funkdienst für Zeit und
Standardfrequenz, indem die Signale im Bereich der Bodenwellenversorgung
besonders stabil und zuverlässig sind. Die militärischen Stationen
profitieren vor allem vom Eindringen unter die Meeresoberfläche, was die
Langwelle zum Führen von U-Booten geeignet macht.

Der Frequenzumfang der Langwelle ist gerade so breit wie ein einziger UKW
Kanal. Damit möglichst viele Stationen auf Langwelle arbeiten können,
verbieten sich breite Modulationsarten automatisch. Der Rundfunkdienst
verwendet AM mit 9kHz Bandbreite, der höchste übertragbare Audioton liegt
dann bei 4500 Hz, was gerade mal Telefonqualität entspricht. Mit Ausnahme
des Funknavigationsverfahrens LORAN mit rund 20 kHz und eines einzigen
schnellen Datenübertragungsverfahrens mit rund 2300 Hz, verwenden alle
anderen Funkdienste heute Bandbreiten von nicht mehr als 300 Hz.
Zum Empfang der Langwelle muß der Empfänger zunächst einmal auch auf die
betreffenden Frequenzen abstimmbar sein. Viele der üblichen Empfänger für
Kurzwellenhörer bieten im Langwellenbereich nur eine bescheidene
Empfindlichkeit, die allenfalls für den Empfang des leistungsstarken
Rundfunkdienstes ausreicht.

Noch wichtiger als die Empfindlichkeit sind Empfängereigenschaften wie Selektion (die Sendestellen liegen in der Frequenz dicht nebeneinander) und Signalfestigkeit (die. Sendestellen verwenden teilweise sehr hohe Leistungen, deren Reichweite auch von der Thermodynamik abhängt).

Mit einem ZF Filter in AM Bandbreite (9 oder 6 kHz) ist der Rundfunkempfang
möglich, sowie der Empfang des Funknavigationsverfahrens LORAN, aber auch
nicht mehr. Ein ZF Filter in SSB Breite von 2300 Hz ist nur zum vernünftigen
Empfang einer einzigen Sendestelle geeignet (DCF42 auf 123,7 kHz). Alle
anderen Sendestellen erfordern ZF Filter in CW Breite. Die in vielen
Empfängern für CW vorgesehene Bandbreite von 500 Hz ist auf Langwelle fast
schon zu breit um alle Stationen sauber trennen zu können, aber es geht
schon recht gut. Optimal sind Bandbreiten zwischen 300 und 200 Hz.
Wie erwähnt verwendet der Rundfunkdienst die Modulationsart AM, die jeder
übliche Empfänger problemlos verarbeitet. Etwa 17 Stationen lassen sich in
Deutschland empfangen, angefangen vom Deutschlandfunk aus Donebach auf 153
kHz bis zur irischen Station Atlantic 252 und der algerischen Station aus
Tipaza, beide auf 252 kHz.

Das Funknavigationsverfahren LORAN sendet eine Serie von kurzen Impulsen der
Frequenz 100 kHz aus und belegt dabei die Bandbreite von 90 kHz bis 110 kHz.
Auf 100 kHz abgestimmt und mit AM empfangen, hört man ein Geräusch ähnlich
dem von auf ein Kuchenblech fallenden Erbsen.
Stimmt man den Empfänger auf 122,5 kHz, wählt USB und eine Bandbreite von
2300 Hz, dann hört man DCF42 aus Mainflingen. Dort werden schnelle Daten
ausgesendet, die von speziellen Empfängern aufgenommen, Korrekturdaten für
GPS Navigationsgeräte liefern.

Damit enden die Empfangsmöglichkeiten von einfachen Empfängern, die keine CW
Filter besitzen. Die Mehrheit der restlichen empfangbaren Dienste senden im
Verfahren Frequenzumtastung (FSK) digitale Signale aus. Symmetrisch zur
Nennfrequenz strahlen diese Dienste entweder eine tiefere, oder höhere
Frequenz aus, die für die zwei möglichen logischen Zustände des digitalen
Signals stehen. Die Abweichung der beiden Frequenzen von der Nennfrequenz
heißt Hub, der gegenseitige Abstand Shift.
Die Besitzer von 500 Hz CW Filtern können gut die beiden Fernwirkstationen
der Europäischen Funk-Rundsteuer GmbH, DBF39 in Burg auf 139 kHz und DCF49
in Mainflingen auf 129,1 kHz empfangen. Dort werden Kommandos und kurze
Daten ausgesendet, um zentrale Steuerungen zu aktivieren oder zu
programmieren. Weitere Informationen unter http://www.efr.de/ Mit den
restlichen Stationen gibt es bei 500 Hz Filter eventuell Probleme wenn
Stationen dicht benachbart sind.

Mit 200 Hz CW Filter sind gut empfangbar, DDH47 http://www.dwd.de/ der
Deutsche Wetterdienst aus Pinneberg auf 147,3 kHz. Er sendet
Wetterinformationen und Beobachtungen für die Seefahrt. Sowie DHO die
Funkstelle der Deutschen Marine in Ramsloh auf 23,4 kHz. Von dort aus gehen
Informationen und Anweisungen an die Flotte, inklusive U-Boote.
Selbverständlich ist dieser Funkverkehr verschlüsselt.

Viele weitere Stationen, mit ähnlicher Modulation wie DHO sind empfangbar,
u.a. 141,1 kHz, 118,8 kHz, 82,8 kHz, 68,9 kHz, 68 kHz, 65,8 kHz, 62,6 kHz,
57.7 kHz, 57,4 kHz, 54 kHz, 53,7 kHz, 45,9 kHz, 40,7 kHz, 37,5 kHz, 24 kHz,
20,9 kHz, 19,6 kHz und 18,2 kHz. Dabei dürfte es sich mindestens zur Hälfte
um militärische Dienste handeln, zur anderen Hälfte um zivile
Küstenfunkstationen.

Vom Funkdienst für Zeit und Standardfrequenz hören wir im wesentlichen
getastete Trägerfrequenzen. So zB auf 77,5 kHz die Station DCF77 in
Mainflingen, auf 75 kHz die schweizer Station HBG und auf 60 kHz die
englische Station MSF.

Auf 131,7 kHz und 144,6 kHz sind rhythmische Xylophonklänge zu hören, die
von Datatrak (Firmenbezeichnung) Stationen, wahrscheinlich aus den Benelux
Ländern ausgestrahlt werden. Diese Signale werden von speziellen Empfänger
in LKW, Sicherheitsfahrzeugen und ähnlichem aufgenommen zur Ermittlung des
eigenen Standortes. Über andere Funkwege (Zellularfunk) melden die Fahrzeuge
ihren Standort an die Zentrale von Datatrak.

Nicht immer zu empfangen und oft von Gewitterstörungen maskiert ist das
Funknavigationsverfahren der GUS mit der Bezeichnung RSDN-20 (von den USA
Alpha genannt). Ende 1999 und in diesem Jahr konnten 2 Stationen auf 3
Frequenzen gehört werden, 14,881 kHz, 12,649 kHz und 11,905 kHz. Man hört
pro Station mindestens ein Piepzeichen alle 3,6 Sekunden.

Amateurfunk

Und da wäre noch der Amateurfunkdienst, der seit einiger Zeit wieder auf
Langwelle im Bereich 135,7kHz bis 137,8 kHz arbeiten darf. In den meisten
europäischen Ländern sind 1W abgestrahlte Leistung erlaubt, in Deutschland
ist die Senderleistung (noch) auf 20W beschränkt. Je nach Empfangsantenne
und Störsignalen aus der Umgebung, sind die Amateursignale in einem Umkreis
von 300km gut zu empfangen. In der Nacht von Samstag auf Sonntag
9/10 September 2000 gelang die Überbrückung des Atlantik von England nach
Kanada (G0MRF mit VE1ZZ und VE1ZJ) auf Langwelle mit Amateurleistung.
Die Amateure verwenden entweder normale Morsezeichen oder eine extrem
langsame Variante der Morseschrift zum Empfang mit PC gestützen Mitteln.

Das wirkt – Tipps für effektives Marketing trotz geringen Budgets

Das wirkt – Tipps für effektives Marketing trotz geringen Budgets

Der Schlüssel zu einem erfolgreichen Unternehmen ist das Marketing. Ständig muss man auf der Suche nach neuen Kunden sein und die Marke bekannt machen. Doch wie kann man dies am besten tun? In diesem Blog finden Sie Tipps und Tricks, wie Sie Ihr Unternehmen erfolgreich vermarkten und so Umsatz generieren. Also, worauf warten Sie noch?

Zielgruppenbestimmung

Die Ermittlung Ihrer Zielgruppe ist eine entscheidende Komponente beim Aufbau eines erfolgreichen Marketingplans. Um Ihr Unternehmen erfolgreich zu machen, müssen Sie sicherstellen, dass Sie die richtige Zielgruppe ansprechen. Eine effektive Kundensegmentierung hilft Ihnen, die richtigen Produkte und Dienstleistungen für Ihre Zielgruppen zu entwickeln und zu vermarkten.

Um herauszufinden, welche Kunden am meisten für Ihr Unternehmen wert sind, müssen Sie die Demografie, die psychografischen Merkmale und den Kaufverhalten Ihrer Zielgruppe analysieren. Mit dieser Information können Sie relevante Botschaften und Kampagnen entwickeln, um neue Kunden anzulocken und bestehende Kunden zu halten.

Nutzen Sie soziale Medien

Soziale Medien sind ein wesentlicher Bestandteil des modernen Marketings. Heutzutage nutzen viele Menschen Social Media-Plattformen wie Facebook, Twitter und Instagram, um auf ihre Marken aufmerksam zu machen. Wenn Sie eine starke Präsenz in sozialen Medien haben, können Sie leicht neue Kundengruppen erreichen und Interesse an Ihrem Unternehmen wecken.

Sie können auch Social Media Ads nutzen, um gezielt nach potenziell interessierten Personengruppen zu suchen. Mit dieser Methode können Sie effizient neue Kundengruppen erreichen und gleichzeitig Umsatz generieren. Für jeden Marketingplan ist es jedoch essenziell, den Return on Investment (ROI) zu messen, damit man seinen Erfolg nachvollziehen kann.

Nutzen Sie Testimonials

Testimonials sind eine effektive Möglichkeit, um Umsatz zu generieren. Durch positive Bewertung von früheren Kundenerfahrung mit Ihrem Unternehmen können potenzielle Käufer dazu überzeugt werden, den Kauf abzuschließsen. Es ist ratsam Testimonials auf verschiedene Plattform wie Ihrer Website oder soziale Medienkanälen zu posten oder diese auf anderen Seiten zur Verfügung stellen damit potenzielle Käufer darauf aufmerksam werden können.

Produktentwicklung

Die Produktentwicklung ist ein wichtiger Bestandteil des erfolgreichen Marketings. Die meisten Unternehmen investieren viel Zeit und Geld in die Entwicklung neuer Produkte, weil sie wissen, dass dies einen wichtigen Teil ihres Umsatzes ausmacht.

Eine erfolgreiche Produktentwicklung benötigt jedoch mehr als nur gute Ideen. Es ist wichtig, dass Sie Ihre Ideen mit dem Endkonsumenten und dem Markt abgleichen, bevor Sie etwas produzieren. Auch der Preis und die Qualität spielen eine wichtige Rolle bei der Produktentwicklung.

Wenn Sie also ein neues Produkt entwickeln möchten, sollten Sie sicherstellen, dass es den Bedürfnissen Ihrer Kunden entspricht und auch für den Markt interessant ist. Nur so kann Ihr neues Produkt erfolgreich sein!

Marktanalyse

Die Suche nach dem passenden Produkt oder der passenden Dienstleistung ist oft ein schwieriger und zeitaufwendiger Prozess. Doch wenn Sie bereits vorab wissen, auf welchem Markt Sie sich positionieren möchten, können Sie die Suche nach dem perfekten Angebot deutlich vereinfachen.

Eine erfolgreiche Marktanalyse hilft Ihnen dabei, den bestmöglichen Weg zum Erfolg zu finden. Durch die Analyse von verschiedenen Faktoren wie dem Potenzial des Marktes, den Wettbewerbern und den Kundenbedürfnissen können Sie entscheiden, ob ein bestimmtes Angebot für Sie interessant ist oder nicht.

Wenn Sie bereits wissen, auf welchem Markt Sie sich positionieren möchten, können Sie die Suche nach dem perfekten Angebot deutlich vereinfachen. Eine erfolgreiche Marktanalyse hilft Ihnen dabei, den bestmöglichen Weg zum Erfolg zu finden. Durch die Analyse von verschiedenen Faktoren wie dem Potenzial des Marktes, den Wettbewerbern und den Kundenbedürfnissen können Sie entscheiden, ob ein bestimmtes Angebot für Sie interessant ist oder nicht.

Wettbewerbsanalyse

Die Wettbewerbsanalyse ist ein Schlüsselaspekt bei der Erstellung einer erfolgreichen Marketingstrategie. Sie hilft Ihnen zu verstehen, welche anderen Unternehmen und Marken auf dem Markt sind, was sie tun und wie Sie sich am besten von ihnen abheben können. Durch die Ausführung einer solchen Analyse werden Sie in die Lage versetzt, Ihre Wettbewerbsvorteile hervorzuheben und sie in Ihren Kommunikations- und Werbestrategien zu nutzen.

Es gibt viele verschiedene Möglichkeiten, wie man eine Wettbewerbsanalyse durchführen kann. Einige der Methoden umfassen das Sammeln von Marktforschungsdaten, das Durchführen von Umfragen unter Kunden, Interviews mit Konkurrenten und das Durchgehen von Branchenpublikationen und -berichten. Zusätzlich zu diesem ersten Schritt können Sie auch die Preisgestaltung der Konkurrenz überwachen, um festzustellen, ob Ihre Preise mithalten oder nicht.

Diese Art der Analyse gibt Ihnen Informationen über den aktuellen Stand der Branche sowie über potenzielle Kundensegmente und deren spezifische Bedürfnisse. Dadurch können Sie herausfinden, wo Ihr Unternehmen gegenüber Wettbewerbern im Vorteil liegt und wo es Verbesserungspotential hat. Auf diese Weise können Sie herausfinden, wie Sie Ihr Produkt besser an die Zielgruppenerwartung anpassen und so mehr Umsatz machen können.

Positionierung

Positionieren Sie Ihr Unternehmen richtig im Kopf Ihrer Kunden!

Die richtige Positionierung ist also von entscheidender Bedeutung für Ihr Unternehmen. Doch was genau ist eigentlich Positionierung? Und wie können Sie sie effektiv nutzen? In diesem Artikel erkläre ich Ihnen, was Positionierung ist – und warum es so wichtig ist, dass Sie die Strategie Ihres Unternehmens kennen und verstehen.

Strategieentwicklung

Marketing ist eine komplexe Aufgabe, die viel Zeit in Anspruch nimmt. Um erfolgreich zu sein, müssen Sie eine Strategie entwickeln, die Ihren Zielen entspricht. Dazu gehört die Definition Ihrer Zielgruppe, die Festlegung Ihrer Marketingziele und die Wahl der geeigneten Marketinginstrumente. Nur wenn Sie Ihre Strategie sorgfältig planen und durchführen, können Sie langfristig Erfolg haben.

Worauf beim Kauf eines Tablets achten

Worauf beim Kauf eines Tablets achten

In den meisten Haushalten gibt es mindestens ein Tablet. Wer noch keins besitzt oder sich ein neues Tablet kaufen möchte, der sollte einige Dinge beachten,denn Tablet ist nicht gleich Tablet. Es gibt einige Unterschiede. Wird das falsche gewählt, kann sich schnell der Frust einstellen.

Die Merkmale eines Tablets

Zunächst unterscheiden sich die Tablets in der Größe. Die gängigsten Größen sind sieben Zoll, gefolgt von acht und zehn Zoll. Mittlerweile gibt es auch Tablets, die über zwölf Zoll groß sein können. Ein weiteres Unterscheidungsmerkmal ist das Betriebssystem, denn es gibt drei unterschiedliche Betriebssysteme. Dementsprechend unterscheiden sich auch die einzelnen Apps. Kommen wir zunächst zur Größe. Sieben Zoll ist ideal zum Lesen von Büchern und Zeitschriften, denn es lässt sich leicht in der Hand halten. Dank der Hintergrundbeleuchtung können Sie damit auch im Dunkeln lesen, was bei einem eBook-Reader nicht immer der Fall ist. Der Nachteil ist der, dass die Benutzung bei grellem Sonnenlicht zur Qual wird. Natürlich können Sie mit einem Tablet nicht nur lesen, sondern auch im Internet surfen, E-Mails lesen und beantworten, Musik hören oder Filme schauen. Für letzteres ist es sinnvoll, sich ein zehn Zoll Tablet oder höher zu kaufen. Zum Bücherlesen eigenen sie sich aber weniger, denn dafür sind sie zu groß und zu schwer. Die meisten Tablets werden mit dem Android-Betriebssystem ausgeliefert, gefolgt von Apples iOS oder mit Windows 10. Es ist Geschmacksache, für welches Tablet Sie sich entscheiden. Die Tablets von heute haben aber ein wichtiges Merkmal, das kaufentscheidend ist.

LTE, 4G oder 5G — Was sich dahinter verbirgt

Die Ansprüche an die Mobilität werden heutzutage immer größer. Natürlich ist es möglich, sich mit einem herkömmlichen Tablet ins Internet einzuwählen. Das geschieht in der Regel über WLAN. Was geschieht jedoch, wenn Sie mit Ihrem Tablet auch von unterwegs aus ins Internet wollen? Dann fangen die Probleme an, denn noch ist die Netzabdeckung von Hotspots nicht ausgereift genug. Sollten Sie zu dem Personenkreis gehören, der mit seinem Tablet viel unterwegs ist und das Internet nutzen möchte, dann sollten Sie darauf achten, dass das Tablet über einen SIM-Karten-Einschub verfügt.

Eine SIM-Karte kennen Sie von Ihrem Handy oder Smartphone. Mit einem Tablet, das über einen SIM-Karten-Slot verfügt, können Sie unterwegs das Internet nutzen und sogar damit telefonieren, sofern das Telefonhörer-Symbol auf dem Startbildschirm zu sehen ist. Bevor Sie sich also ein solches zulegen, sollten Sie auf die Bezeichnungen LTE, 4G oder 5G achten, denn dann verfügen diese Tablets über einen solchen SIM-Karten-Slot.

Der Standard von heute ist 4G auch LTE genannt. Es handelt sich dabei um eine sehr schnelle Internetverbindung, mit der Sie auch große Datenpakete downloaden können. Achten Sie aber unbedingt darauf, dass 4G oder LTE auf dem Tablet steht. Es gibt noch ältere Geräte, die sind nur 3G beziehungsweise UMTS fähig. Dieses veraltete System wird aber in naher Zukunft komplett abgeschaltet. Dann können Sie das Tablet nicht mehr zum Surfen nutzen, sondern müssen das Tethering nutzen. 5G ist der neuste und schnellste Standard. Allerdings ist das Netz noch nicht vollkommen ausgebaut. Es reicht vollkommen aus, wenn Sie sich ein Tablet mit LTE kaufen, denn diesen Standard wird es noch für Jahre geben.

Der Preis

Tablet ohne SIM-Karten-Fach sind günstiger im Preis. Wenn Sie aber das Tablet unterwegs zum Surfen nutzen möchten, dann sollten Sie die Mehrkosten in Kauf nehmen, denn sonst ärgern Sie sich hinterher. Sie müssten dann die Internet-Verbindung über das sogenannte Tethering herstellen. Dafür werden zwei Geräte benötigt, entweder ein Smartphone oder einen mobilen WLAN-Hotspot. Das Mobiltelefon oder der Hotspot ist dann praktisch das Modem.

Fazit

Die Ansprüche an elektrische Geräte werden immer höher. Ein Smartphone ist heute mehr als nur ein Telefon. So verhält es sich auch mit einem Tablet. Diese Geräte sind speziell für den mobilen Einsatz konzipiert. Wenn Sie nicht nur

mit Ihrem Tablet auf der Couch liegen wollen und Filme streamen möchten, dann sollten Sie sich gleich zum Kauf eines Tablets mit SIM-Karten-Fach, sogenannte LTE-Tablets, entscheiden. Dann sind Sie unabhängig von Hotspots und können sogar von unterwegs aus damit telefonieren. Schließen Sie das von vornherein aus, dann reicht auch ein Tablet mit WLAN aus.

Einen PC selbst zusammen bauen

Einen PC selbst zusammen bauen

Viele Menschen greifen auf die verschiedenen Angebote an Komplett-PCs zurück, da diese weniger Arbeit und Fachwissen erfordern. Doch in den meisten Fällen hat man bei solchen Computern keinen Einfluss auf die verbauten Komponenten, so dass hier oftmals billige Komponenten mit hochwertigen vermischt werden um die Preise stabil zu halten. Für weniger Geld kann man sich in der Regel bessere und leistungsstärkere Systeme selber zusammenstellen und auch selber zusammenbauen. Denn der Zusammenbau eines Computers ist kein Hexenwerk und kann von jedem schnell und einfach gelernt werden. Mit einem einfachen Kreuzschlitz-Schraubendreher und einer kleinen Spitzzange lässt sich ein solcher Computer bereits zusammenbauen. Sind also alle Komponenten erworben, kann man sofort mit dem Zusammenbau anfangen.

Den Arbeitsplatz vorbereiten

Um einen Computer zusammenzubauen kann praktisch jeder Platz verwendet werden. Wichtig ist hierbei vor allem, dass alle Komponenten in direkter Reichweite

liegen, der Computer auf einer ebenen Fläche positioniert werden kann und man eine gute Ausleuchtung der Arbeitsfläche erreicht. Viele Menschen bauen deshalb ihren Computer direkt auf dem Herd zusammen, da hier über den Dunstabzug eine starke und direkte Beleuchtung vorhanden ist. Hier sollte man aber für eine Unterlage sorgen, damit der Tower den Herd nicht zerkratzen kann.

Den Tower vorbereiten

Hat man einen neuen Tower für seinen neuen PC gekauft, sollte man diesen nun aufschrauben. Hierbei müssen in der Regel an der Rückseite des Towers vier Schrauben gelöst werden, dann können beide Seitenteile ohne Probleme abgezogen werden. Nun kann man den Tower so auf die Seite legen, dass man gut im Innenraum arbeiten kann.

Das Mainboard einbauen

Zunächst einmal sollte man das Mainboard aus der Verpackung nehmen und die Beschreibung des Mainboards in greifbare Reichweite legen. Dies erleichtert spätere Einbauschritte und erspart lästiges Suchen. Nun sollte man den Tower dahingehend untersuchen, ob die Schraublöcher im Tower selber bereits isoliert sind, oder die Isolationen des Mainboard Herstellers genutzt werden müssen. Denn ohne diese Isolation würde das Mainboard direkt auf dem Metall des Towers liegen, was in der Regel einen Kurzschluss und eine Beschädigung des Mainboards zur Folge haben würde. Nun kann man das Blech, in welches die verschiedenen Anschlüsse gestanzt wurden, an der Rückseite des Towers befestigen. Auch wenn bereits ein solches Anschlussblech vorhanden ist, sollte dies immer ausgetauscht werden, da nur das Blech des Mainboards exakt zu den Anschlüssen auf diesem passt. Ist das Anschlussblech eingesetzt, kann nun das Mainboard befestigt werden. Hierzu muss das Mainboard so in den Tower gelegt werden, dass die Anschlüsse hinten in das Lochblech hinein ragen und die Schraublöcher des Mainboards mit denen des Towers übereinstimmen. Bei der Befestigung der Schrauben hilft hier ein magnetischer Schraubendreher, aber auch mit einem herkömmlichen Schraubendreher ist dieser Schritt problemlos möglich. Man sollte allerdings darauf achten die Schrauben nicht zu fest anzuziehen, um Beschädigungen zu vermeiden. Die große Anzahl an Schrauben hält das Mainboard so problemlos in Position.

Den Prozessor einbauen – ein wichtiger Schritt mit Fingerspitzengefühl

Den Prozessor vorsichtig einsetzen um keine Pins zu beschädigen
Den Prozessor vorsichtig einsetzen um keine Pins zu beschädigen

Um den Prozessor einbauen zu können, muss man auf dem Mainboard zunächst die entsprechende Klemme lösen und die Abdeckung hochklappen. Nun ist Fingerspitzengefühl gefragt. Achten sollte man beim Einsetzen des Prozessors vor allem auf vorhandene Markierungen auf Prozessor und Mainboard, um diesen in der richtigen Position einzusetzen. Ein goldener Pfeil oder Punkt sorgt hier für Hilfe. Ist der Prozessor eingesetzt und liegt sicher und fest in der entsprechenden Aussparung auf dem Mainboard, kann nun die Klemme wieder geschlossen werden. Dies benötigt in der Regel ein wenig mehr Kraftaufwand. Da der Prozessor ohne Kühler nicht lange überleben würde, muss dieser nun ebenfalls eingebaut werden. Hier sollte man darauf achten, ob die Unterseite des Lüfters mit einer Leitpaste versehen wurde. Moderne Lüfter liefern diese Paste oftmals bereits aufgebracht mit, so dass man hier keine Arbeit mehr hat. Der Lüfter muss nun über dem Prozessor angebracht und entsprechend der Anleitung befestigt werden. Ein Blick in die Anleitung des Mainboards hilft hier dabei den passenden Anschluss für den Prozessorlüfter auf dem Mainboard zu finden und das entsprechende Kabel vom Lüfter dort anzuschließen.

Das Netzteil einbauen – nur vier Schrauben nötig

Nachdem der Prozessor eingebaut wurde, kann man sich dem Netzteil zuwenden. Dieses wird in der Regel in den entsprechenden Schacht oben an der Rückseite des Towers geschoben und von hinten verschraubt. So bleibt das schwere Netzteil sicher in Position und kann die gewünschte Leistung liefern. Das größte Kabel, bzw. der größte Anschluss am Kabelbaum des Netzteils ist in der Regel für die Stromversorgung des Mainboards zuständig. Ein Blick in die Dokumentation des Mainboards verrät, mit welchem Kabel das Netzteil angeschlossen werden sollte. Je nach Mainboard kann es hierbei notwendig sein, zwei Stecker miteinander zu verbinden und diese gemeinsam in den Steckplatz des Mainboards zu stecken. Dies ist jedoch weder kompliziert, noch schwierig, so dass dieser Schritt schnell erledigt sein sollte.

Den Arbeitsspeicher installieren – nichts einfacher als das

Ram / Arbeitsspeicher passt nur in einer Richtung auf das Mainboard
Ram / Arbeitsspeicher passt nur in einer Richtung auf das Mainboard

Auch der Arbeitsspeicher stellt beim Einbau kein Problem dar. Die entsprechenden Slots für den Speicher können sowohl leicht erkannt, als auch bestückt werden. Einfach die Klemmen an den beiden Enden des Slots öffnen und den Arbeitsspeicher in der richtigen Ausrichtung in den Slot drücken. Auch hier kann ein wenig Kraft von Nöten sein. Sitzt der Arbeitsspeicher richtig, schnappen die Klemmen praktisch von selber ein und sollten nur noch einmal auf den stabilen Sitz überprüft werden.

Festplatten und Laufwerke einbauen und anschließen

Um optische Laufwerke einzubauen, müssen in der Regel Abdeckungen aus der Front des Towers entfernt werden. Dies ist von innen jedoch leicht möglich. Das Laufwerk wird nun von vorne in den Tower geschoben, so dass es bündig mit diesem abschließt. Anschließend kann man das Laufwerk von der einen Seite aus mit zwei Schrauben befestigen. Festplatten hingegen werden von innen in die entsprechenden Halter geschoben und ebenfalls mit zwei Schrauben befestigt. Die notwendigen SATA-Kabel und die Stromkabel können nun einfach eingesteckt und mit dem Mainboard verbunden werden. Ist dies geschehen, sollte man den Tower einmal aufrecht stellen und die Laufwerke und Festplatten auch von der anderen Seite aus festschrauben. Somit bleibt alles fest an seinem Platz und kann nicht herum rutschen.

Die Grafikkarte – einfaches Stecksystem mit Tücken

Grafikkarten einstecken - an die Stromzufuhr bei Leistungsstarken denken
Grafikkarten einstecken – an die Stromzufuhr bei Leistungsstarken denken

Um die Grafikkarte einbauen zu können, müssen aus der Rückseite des Towers eine oder mehrere kleine Abdeckungen entfernt werden. Diese sind oftmals angeschraubt und müssen dem entsprechend erst einmal gelöst werden. Die Grafikkarte kann nun einfach in den entsprechenden PCI-Anschluss eingerastet werden. Hier muss man nur auf die Klemme achten, welche zuvor am Anschluss gelöst werden muss. Besonders leistungsstarke Grafikkarten benötigen darüber hinaus meistens noch einen eigenen Stromanschluss. Hier hat es sich als hilfreich erwiesen, die Karte zunächst mit dem Netzteil zu verbinden, ehe man die Karte einbaut. Dies verhindert, dass man blind nach den entsprechenden Anschlüssen an der Grafikkarte suchen muss.

Die Feinarbeit – die Frontanschlüsse anschließen

Eigentlich würde der Computer bereits funktionieren, doch anschalten lässt er sich noch nicht. Denn die an der Front des Towers liegenden Anschlüsse wie Ein-Aus-Schalter, Resetschalter, USB-Anschluss und Soundanschluss müssen noch mit dem Mainboard verbunden werden. Da diese Kabel in kleinen Steckanschlüssen enden, kommt hier die Zange zum Einsatz. Die richtige Position der Anschlüsse kann man hierbei ganz leicht der Beschreibung des Mainboards entnehmen. Sind all die Anschlüsse korrekt verkabelt, ist der PC einsatzbereit.

Praktische Tipps

Es hat sich bewährt die Kabel im inneren des Computers nach Möglichkeit mit Kabelbindern zu fixieren und zu verbinden. Nicht nur, dass so dieÜbersichtlichkeit im Inneren des Computers deutlich ansteigt, auch der Luftstrom für die Kühlung im Inneren des Computers wird so deutlich verbessert. Verfügt der Tower über weitere, eingebaute Lüfter können diese in der Regel ebenfalls über das Mainboard angeschlossen werden. Hierfür einfach in der Beschreibung nach den entsprechenden Anschlüssen suchen.

Was ist Ethereum?

Was ist Ethereum?

Die Blockchain-Technologie wird meistens mit Bitcoin in Verbindung gebracht —doch es gibt weitaus mehrere weitere Anwendungen, die über digitale Währungen weit hinausgehen. Bitcoin ist tatsächlich nur eine von mehreren Tausend Anwendungen, welche von der Blockchain-Technologie heute genutzt werden. Die Building Blockchain-Anwendungen erforderten noch bis vor Kurzem umfangreiches Know-how in den Bereichen Kryptografie, Codierung, Mathematik sowie mehrere erhebliche Ressourcen. Das hat sich allerdings geändert. Bislang unbekannte Anwendungen, von digital erfassten Immobilienvermögen über elektronischen Abstimmungen bis hin zu Handel und Compliance, werden mittlerweile aktiv entwickelt und extrem schnell umgesetzt. Dazu stellt Ethereum Entwicklern die richtigen Werkzeuge zur Verfügung, damit sie dezentrale Anwendungen erstellen können.

Eignet sich Ethereum auch für Anfänger?

Ethereum ist zunächst eine offene, auf Blockchain-Technologie basierende Softwareplattform, welche es Entwicklern ermöglicht, eine dezentrale Anwendung zu erstellen und diese einzusetzen.

Sind Ethereum und Bitcoin ähnlich? Einerseits schon, anderseits wiederum nicht.

Ethereum ist wie Bitcoin ein öffentliches dezentrales Blockchain-Netzwerk.

Obwohl es zwischen den beiden mehrere signifikante technische Unterschiede gibt, ist der essenzielle Unterschied, dass sich Ethereum und Bitcoin in Bezug auf Fähigkeit und Zweck erheblich voneinander unterscheiden. Bitcoin stellt eine spezielle Anwendung der Blockchain-Technologie zur Verfügung: Das ist ein elektronisches Peer-to-Peer System, welches online Zahlungen mit Bitcoin ermöglicht. Die Bitcoin-Blockchain wird hierfür verwendet, um den Besitz der Bitcoins zu verfolgen. Eine Ethereum-Blockchain richtet sich hingegen auf die Ausführung der Programmierverschlüsselung einer dezentralen Anwendung aus. Miner suchen in der Ethereum-Blockchain nicht nach Bitcoin — sie möchten

Ether verdienen, eine Krypto-Token Art, von der das Netzwerk angetrieben wird. Neben handelbaren virtuellen Währungen wird Ether ebenso von

Anwendungsentwicklern angewendet, um Dienstleistungen und Transaktionsgebühren im Ethereum-Netzwerk bezahlen zu können.

Es gibt auch eine weitere Art von Token, die angewendet wird, um Mining-Gebühren zu bezahlen, im Falle wenn Transaktionen im eigenen Block aufgenommen werden. Dieses bezeichnet man als Treibstoff, wobei jede Smart Contract Ausführung voraussetzt, dass eine bestimmte Treibstoffmenge mitgeschickt wird, um Miner dazu zu veranlassen, dieses in die Blockchain aufzunehmen.

Smart Contract: Was versteht man darunter?

Smart Contract bezeichnet einen Ausdruck, mit dem man einen Computercode beschreibt, der den Austausch von Inhalten, Geld, Aktien, Eigentum oder weitere Wertsachen erleichtern kann. Wird ein Smart Contract auf der Blockchain ausgeführt, so wird er zu einem selbstfahrenden PC-Programm, welches automatisch ausgeführt wird, sobald alle notwendigen Bedingungen erfüllt sind. Blockchain Smart Contracts laufen exakt so, wie sie programmiert wurden — ohne Ausfallzeiten, Zensur, Eingriffe Dritter oder Betrug.

Obwohl jede Blockchain problemlos Code verarbeiten, sind die meisten ziemlich eingeschränkt. Ethereum ist hingegen anders. Es macht keine begrenzten Angebote: Es ermöglicht Entwicklern, Anwendungen nach beliebiger Art zu entwickeln. Das heißt, dass Entwickler mehrere Tausend von verschiedenen Anwendungen entwickeln können, die über das, was wir bisher kennen, weit hinausgehen.

Ethereum als virtuelle Maschine

Blockchain-Anwendungen konnten vor der Schaffung von Ethereum eine eher begrenzte Anzahl von Anwendungen verwirklichen. Bitcoin und weitere Kryptowährungen wurden zum Beispiel nur als Peer-to-Peer Betrieb von digitalen Währungen entwickelt. Aus diesem Grund standen Entwickler vor einem Problem. Sie hatten zwei Optionen: Entweder erweitern Sie den Funktionsumfang, der von Bitcoin und weiteren Anwendungen angebotenen wird, was zeitaufwendig und durchaus kompliziert ist, oder Sie bemühen sich eine neue Blockchain-Anwendung und eine komplett neue Plattform zu entwickeln.

Der Schöpfer von Ethereum, Vitalik Buterin, konnte dieses Dilemma erkennen und daraus einen neuen Ansatz entwickeln.

Die Ethereum Virtual Machine (EVM), die Kerninnovation von Ethereum, ist eine komplettierte Turing-Software und läuft im Ethereum-Netzwerk.

Dadurch hat jeder, der ausreichend Speicher und Zeit zur Verfügung hat, die Möglichkeit alle Programme auszuführen — ganz abgesehen von der Programmiersprache. Die EVM macht den Erstellungsprozess von Blockchain-Anwendungen so effizient und einfach wie niemals zuvor. Anstatt eine komplett neue Blockchain für jede neue Anwendung erstellen zu müssen, ist

durch Ethereum die Erstellung von Tausenden unterschiedlicher Möglichkeiten zur Anwendung auf einer Plattform ermöglicht worden.

Wofür kann ETH verwendet werden?

Durch Ethereum können Entwickler dezentrale Anwendungen erstellen und diese implementieren. Eine dezentrale Anwendung — Decentralized Application (kurz Dapp) — dient ihren Nutzern zu einem gewissen Zweck. Bitcoin beispielsweise ist ein Dapp, der seinen Usern ein elektronisches Geldsystem zur Verfügung

stellt, um BTC-Zahlungen online zu tätigen. Dezentrale Anwendungen bestehen aus Verschlüsselungen, welchen in Blockchain-Netzwerken laufen – deswegen gibt es keine zentrale oder einzelne oder Stelle, von der sie gesteuert werden.

Jede zentralisierte Dienstleistung kann mit ETH dezentralisiert werden. Stellen Sie sich all die Vermittlungsdienste vor, die in mehreren Hundert

unterschiedlichen Branchen tätig sind: offensichtliche Dienste wie Darlehen von Banken oder Vermittlungsdienstleistungen, welche seltener in Betracht gezogen werden, wie zum Beispiel dem Registrieren von Abstimmungssystemen, Eigentumstiteln, der Vorschrifteneinhaltung und vieles mehr.

ETH kann ebenso zum Aufbau von autonomen dezentralen Organisationen (DAO) verwendet werden. Eine dezentrale autonome Organisation ist eine Organisation ohne eine einzige Führungskraft. Sie läuft auf Basis eines Programmiercodes, auf einer Smart-Contract-Sammlung, die auf der ETH-Blockchain geschrieben sind. Durch den Code werden die Strukturen und Regeln eines traditionellen Unternehmens ersetzt, wodurch die Notwendigkeit von einer zentralen Kontrolle und Mitarbeitern entfällt. Eine DAO gehört allen, die Token kaufen, allerdings bedeutet das Token nicht Eigentum und Kapitalaktien, Token fungieren eher als Stimmrechte.

Ethereum wird ebenso als Plattform für die Einführung von weiteren Kryptowährungen verwendet. Aufgrund des ERC20-Token-Standards, das von der ETH-Stiftung definiert wurde, können etliche Entwickler ihre individuellen Versionen des Tokens ausgeben und mit einem ICO (Initial Coin Offering) Geldsummen einsammeln. Die Emittenten des Tokens setzen in dieser Fundraising-Strategie einen bestimmten Geldbetrag fest, den sie verdienen wollen, stellen ihn in einem Crowdsale zum Angebot und erhalten dafür Ether.

Auf der Ethereum-Plattform wurden in den letzten Jahren mittels ICOs sogar Milliarden von US-Dollar eingesammelt. Ein ERC20-Token wird als eine der wertvollsten digitalen Währungen der Welt (EOS) bezeichnet.

ETH hat ebenso einen weiteren Token-Standard (ERC721) entwickelt, um einzigartigen Vermögenswerten folgen zu können. Einer der häufigsten Anwendungsbereiche für derartige Token sind digitale Sammelobjekte: Infrastruktur ermöglichtes, das Eigentum an knappen Digital-Gütern nachzuweisen. Derzeit werden viele Spiele mit dieser Technologie entwickelt, wie zum Beispiel der Erfolg von CryptoKitties — ein Spiel, bei dem die Spiele digitale Kätzchen züchten und sammeln kann.

FRITZEL Drahtantennen für Kurzwellenfunk

Wer kennt sie nicht, die berühmten Antennen von Fritzel. Bei den Windom-Antennen steht das „FD-4“ sozusagen für diesen Typ von Drahtantennen. Jetzt in unserem Programm. Die Legende lebt!

Multiband-Antenne FD4

FD-Antennen sind koaxialkabelgespeiste Windom-Versionen. Die FD4`s zeichnen sich durch große Resonanzbereiche aus. Zwischen 3 bis 30 MHz stehen ca. 4,7 MHz zur Verfügung, in denen man direkt Hochfrequenz auskoppeln kann, bei Verwendung eines Anpassungsgerätes sogar ca. 15 MHz. Die Antennenlänge von 41,5 m wurde so gewählt, dass die FD4 sowohl für den Amateurfunk als auch für andere Funkdienste eingesetzt werden kann. Die Antennen haben bis auf den Balun im Speisepunkt für den Multibandbetrieb keine weiteren Einbauten. Daher sind sie leicht und trotzdem robust und wetterfest. Der Clou dieses Antennentyps ist der Balun, der gleichzeitig balanciert und transformiert. Der Speisepunkt der FD4 befindet sich bei einem Drittel der Gesamtlänge. Hier sind die Widerstände in 6 Bereichen fast gleich, etwa 300 Ohm. Für die Verwendung von 50 Ohm Koaxialkabel muss die Impedanz 1:6 heruntertransformiert werden, für die AMA- und COM-Versionen ist eine zusätzliche Barriere gegen Mantelwellen (80m) eingebaut.

FD4`s sind bereit für: 80/40/20/17/12/10 m

Es gibt 3 Leistungsklassen der FD4`s. Der Längenschnitt ist bei allen dreien gleich, sie unterscheiden sich nur in der maximalen Belastbarkeit der Baluns.

(mögliche SWR sind in Abhängigkeit vom Aufbau und sind Näherungswerte)

Daten FD4 FD4, 0,5 KW FD4, 2 KW FD4 5KW
Länge: 41,5 Meter 41,5 Meter 41,5 Meter
Frequenzbereiche ohne Anpassungsgeräte. (ca.) in MHz ( <2:1)

  • 6,8 -7,3
  • 13.4 – 15.1
  • 17.6 – 18.8
  • 25.3 – 25.8
  • 28.2 – 29.3
  • 6.8 – 7.3
  • 13.4 – 14.2
  • 14.6 – 15.2
  • 17.3 – 18.3
  • 24.2 – 24.8
  • 27.6 – 28.8
  • 6.8 – 7.3
  • 13.4 – 14.2
  • 14.6 – 15.2
  • 17.3 – 18.3
  • 24.2 – 24.8
  • 27.6 – 28.8

Mögliche Frequenzbereiche mit Abgleich. 3.2 – 3.8

  • 4.3 – 5.4
  • 6.2 – 8.1
  • 13.1 – 18.7
  • 24.3 – 30.4
  • 3.2 – 3.8
  • 6.8 -8.0
  • 12.4 – 18.9
  • 23.3 – 29.9
  • 3.2 – 3.8
  • 6.0 – 8.0
  • 12.7 – 18.9
  • 23.3 – 29.9

HF-Ausgang CW/SSB (nicht AM/FM!) 0,2/0,3 0,7/1,4 1,5/3,0
Teillängen: 13,8/27,7 Meter 13,8/27,7 Meter 13,8/27,7 Meter
Balun Typ: 1:6 S70 1:6 AMA 1:6 COM
Gewicht: (ca.) 1,2 Kg 1,4 Kg 1,5 Kg

Multiband-Antenne FD3

Der kleine Bruder der großen FD4 ist die FD3-Antenne. Sie hat nur die halbe Spannweite der großen, ca. 20m und kann drei Arbeitsbereiche anbieten. Zwischen 6 – 30 MHz stehen ca. 5 MHz Bandbreite bei <2:1 SWR in drei Bereichen zur Verfügung. Mit einem Antennenkoppler kann man sogar bis zu 14 MHz Bandbreite nutzen.

FD3’s sind bereit für: 40/20/10 m

(mögliche SWR sind in Abhängigkeit vom Aufbau und sind Näherungswerte)

Kurzwellenempfänger-Antenne FD3BC

Für Kurzwellenhörer (SWL) gibt es die spezielle FD3BC, die besonders für die Rundfunkbänder 49/25/13m geeignet ist, aber auch zwischen ca. 100 kHz bis 30 MHz eingesetzt werden kann.

Technische Daten des FD3BC

Spannweite: 24,30 Meter
Für Koaxialkabel: 50 oder 60 Ohm
Gewicht: 0,9 Kg
Litze: Stahl/PVC 7x7x0,2 mm

Was macht einen guten Monitor aus?

Was macht einen guten Monitor aus?

Vielleicht sind Sie gerade dabei, sich einen Desktop- oder Notebook-PC auszusuchen, oder Sie haben bereits einen Laptop, sind aber nicht ganz zufrieden mit der Bildschirmfläche, die er bietet – so oder so ist es an der Zeit, sich einen Überblick über die umfangreiche Welt der Computermonitore zu verschaffen, damit Sie herausfinden können, welche(s) Produkt(e) genau Ihren Bedürfnissen entspricht.

Typen von Monitoren

Oberflächlich betrachtet scheint die Bildschirmgröße neben der Marke der einzige Unterschied zwischen Monitoren zu sein. Bevor wir uns damit beschäftigen, was sich hinter den einzelnen Bildschirmen verbirgt und was Ihr PC möglicherweise braucht, um die richtigen Ergebnisse zu erzielen, ist es am besten, die Arten von Monitoren sowie die verschiedenen Formen und Größen, in denen sie erhältlich sind, vorzustellen.

Tipp: Wer aufmerksam die Technik Nachrichten liest, bekommt Nuerungen und Produktvorstellungen mit

Die Entwicklung der Computermonitore

Die ersten Monitore, die früher als Video-Display-Units (VDUs) bezeichnet wurden, verfügten über eine Beleuchtung, damit Computeringenieure den Betriebszustand ihrer Komponenten überwachen konnten und wussten, ob ihre Geräte ordnungsgemäß funktionierten oder nicht. Mit der Weiterentwicklung der Technologie haben sich die Computermonitore in Bezug auf die Anzeigemöglichkeiten und die Art und Weise, wie sie dies tun, stark weiterentwickelt.

Um es einfach auszudrücken, hängt der Monitor, den Sie kaufen müssen, davon ab, wofür Sie Ihren Computer hauptsächlich verwenden werden, und dies kann in drei übergreifende Kategorien unterteilt werden: allgemeine/geschäftliche Nutzung, professionelle Visualisierung und Spiele. Nicht jeder Monitor ist gleich, da bestimmte physikalische Eigenschaften und integrierte Technologien eines bestimmten Produkts möglicherweise die besten Ergebnisse für die Ausführung von Spieleanwendungen im Gegensatz zu Office-Tools oder professionellen Grafikdesign-/Videobearbeitungsprogrammen liefern.

Zu berücksichtigende Merkmale

Oberflächlich betrachtet sind PC-Displays einfach nur Bildschirme, die verschiedene Bilder darstellen – aber hier gibt es natürlich viel mehr zu beachten, als man auf den ersten Blick sieht. Jetzt ist es an der Zeit, das Innere des Monitors zu betrachten, um zu sehen, wie die Anzeigehardware eines Computers funktioniert.

LCD vs. LED

Die Unterschiede zwischen LCD- und LED-Technologie sind ein wichtiger Faktor bei der Entscheidung, was für Ihr Endziel und Ihr Budget geeignet ist.

LCD
Die Flüssigkristallbildschirm-Technologie (LCD) wurde zuerst für Fernsehgeräte entwickelt, kam aber erst Mitte der 90er Jahre für Computermonitore auf den Markt. Der Name kommt von der Tatsache, dass diese Bildschirme aus zwei Glasscheiben bestehen, zwischen denen sich eine Flüssigkeit befindet. Von dort aus wird der Bildschirm in Tausende und Abertausende (manchmal Millionen) von Zeilen und Spalten unterteilt, besser bekannt als Pixel (ein Begriff, der in den 1960er Jahren als Abkürzung für „picture element“ geprägt wurde).

Die Hardware-Teile, die das Bild auf dem Bildschirm Ihres LCD-Monitors ausgeben, werden als Kaltkathoden-Leuchtstofflampen (CCFLs) bezeichnet. Diese Lampen verleihen Ihrem LCD-Monitor eine Lebensdauer von etwa 30.000 Stunden. Da die Technologie älter ist, sind diese Produkte normalerweise dicker und schwerer. Nur wenige von ihnen unterstützen Auflösungen über Full HD (1920×1080, Breite mal Höhe), und auch der Farbkontrastbereich kann manchmal eingeschränkt sein. Wenn Sie sich Gedanken über Ihren ökologischen Fußabdruck machen, ist die Quecksilberverschmutzung, die diese Monitore ausstoßen können, etwas, mit dem Sie sich am Ende des Lebenszyklus des Produkts befassen müssen.

Das ist ein negativer Effekt, der auftritt, wenn Sie Ihren Bildschirm eingeschaltet lassen und das zuletzt angezeigte Bild leicht auf dem Bildschirm verbleibt – auch wenn er ausgeschaltet ist.

LED
Technisch gesehen sind LED-Displays auch LCD-Monitore, da sie die gleiche Flüssigkeit zwischen ihren zweiteiligen Glasscheiben haben. Der Unterschied liegt in der Hardware, die verwendet wird, um das Bild auszustrahlen. Anstelle der Leuchtstofflampen eines LCD-Monitors werden Leuchtdioden (LEDs) verwendet. Dadurch sind LED-Monitore heller und verbrauchen weniger Strom als LCD-Bildschirme und haben letztlich eine Lebensdauer von etwa 50.000 Stunden.

Die Technologie für Leuchtdioden entstand in den frühen 1960er Jahren und konnte zunächst nur rote Farbe erzeugen. Natürlich hat sich die Farbfähigkeit dieser Dioden weiterentwickelt, aber die Effizienz und das hohe Leistungsniveau sind gleich geblieben. Auf dem Papier sind LED-Monitore aufgrund ihres beeindruckenden Farbkontrasts und ihrer Bildqualität zu einem höheren Preis erhältlich. Wenn Sie einen Bildschirm zum Spielen suchen, müssen Sie sich für LED entscheiden, da die Reaktionszeit im Vergleich zu LCD-Displays deutlich schneller ist.

Durch die LED-Technologie sind die meisten dieser Produkte außerdem dünner und leichter, sodass sie schnell und einfach transportiert und installiert werden können. Eine Sache, auf die Sie achten müssen, ist, dass LED-Monitore ein höheres Risiko des Einbrennens haben, also stellen Sie sicher, dass Sie einen Bildschirmschoner haben oder schalten Sie sie aus, wenn sie nicht in Gebrauch sind.

Auflösung und Größe

Bei der Suche nach Ihrem nächsten Monitor wird die Bildschirmgröße höchstwahrscheinlich das erste sein, worauf Sie achten. Wie bei jedem Display der Unterhaltungselektronik wird die Bildschirmgröße diagonal von der unteren Ecke zur gegenüberliegenden oberen Ecke oder umgekehrt gemessen. Derzeit reichen die Bildschirmgrößen auf Newegg bis zu 80″, aber der durchschnittliche Bereich, den Sie beim Kauf im Auge behalten sollten, liegt zwischen 19″ und 43″. Zusammen mit den in den vorherigen Abschnitten erwähnten unterschiedlichen Graden der Panel- und Hintergrundbeleuchtungstechnologie steigen die Bildschirmgröße und die Gesamtkosten eines Monitors im Allgemeinen gleichzeitig.

Jetzt ist ein guter Zeitpunkt, um das Bildseitenverhältnis von Monitoren und dessen Beziehung zu Bildschirmauflösungen vorzustellen. Definitionsgemäß ist das Seitenverhältnis die Breite eines Bildschirms im Verhältnis zur Höhe des Bildschirms. Beispielsweise waren einige der ersten verkauften Fernsehgeräte fast quadratische Bildschirme mit einer etwas größeren Breite als Höhe, was ein Seitenverhältnis von 4:3 ergab. Heute werden Auflösungen von Computerbildschirmen (obwohl sie dem Seitenverhältnis absolut ähnlich sind) in Breite mal Höhe in Pixeln gemessen und dargestellt.

1987 wurden der Welt erstmals Monitore vorgestellt, die 4:3-Bildschirme mit einer Auflösung von 640×480 Pixeln enthielten. Derzeit verwenden die meisten Computermonitore Breitbildformate und Full-HD-Auflösungen, wobei das beliebteste 16:9-Format mit 1920×1080 Pixeln ist. Durch die Verdoppelung der Breiten- und Höhenabmessungen innerhalb eines Seitenverhältnisses können Sie schärfere Auflösungen (klarere Bilder) erhalten, da mehr Pixel in das gleiche Seitenverhältnis gepackt werden. Natürlich haben sich diese Seitenverhältnisse und Auflösungen durch weitere Variationen, wie z. B. gebogene Displays und UltraWide-Monitore, weiterentwickelt.

Arten von Panels

Nachdem wir nun ein Verständnis für Flüssigkristallbildschirme und die beiden Arten von Hintergrundbeleuchtungstechniken haben, die dahinter stehen, ist es an der Zeit, sich mit den verschiedenen Panel-Typen von LCD-Monitorbildschirmen zu befassen und wie sie sich auf Ihre Computeranforderungen beziehen. Nur weil bestimmte Panel-Typen mehr kosten als andere, heißt das nicht, dass teurer generell besser ist. Es kommt darauf an, welche Eigenschaften des Paneltyps am besten für den allgemeinen Gebrauch, für Spiele oder für professionelle Video-/Bildbearbeitungsanwendungen geeignet sind, was im Endeffekt von der Farbwiedergabetechnologie, den Betrachtungswinkeln, den Reaktionszeiten und den Bildwiederholraten abhängt.

TN

Wenn Sie ein Hardcore-PC-Gamer sind, dann sind TN-Panels (Twisted-Nematic) vielleicht Ihr erster Bildschirm der Wahl. Computermonitore mit TN-Panels bieten die höchsten Bildwiederholraten und schnellsten Reaktionszeiten. Als eine der ältesten Anzeigetechnologien erzeugen TN-Panels das Bild durch die Verwendung von lichtdurchlässigen nematischen Flüssigkristallen in Glasplatten, einem Farbfilter und zwei linierten Filtern (einer vertikal, der andere horizontal). Aufgrund des Polarisationseffekts, der in TN-Panels auftritt, haben diese Arten von Monitoren die schlechteste Farbdarstellung und die schlechtesten Betrachtungswinkel. Auf der anderen Seite sind diese Monitore die erschwinglichsten Monitore, was sie perfekt für Gamer macht, die bereits eine Menge Geld für ihre Gaming-Battlestation ausgegeben haben.

Auch hier sollten TN-Panels die erste Wahl sein, wenn Sie die höchste Leistung aus Ihrem Gaming-PC herausholen wollen. Zum jetzigen Zeitpunkt sind TN-Panels die einzigen Monitore, die eine Bildwiederholrate von 240 Hz unterstützen. Das bedeutet, wenn Ihr System und Ihre Grafikkarte 240 Bilder pro Sekunde erzeugen und ausgeben können, wird der Monitor im Gegenzug 240 Bilder pro Sekunde wiedergeben und damit das schnellste und flüssigste visuelle Spielerlebnis auf dem Markt schaffen.

IPS

Im Vergleich zu TN-Panels bieten IPS-Panels (In-Plane-Switching) die besten Blickwinkel und die genauesten Farben. IPS-Panels wurden speziell entwickelt, um die Einschränkungen traditioneller TN-Panels auszugleichen. IPS-Computermonitore sind perfekt für Grafikdesigner oder Kameraleute geeignet, da die inneren Kristallflüssigkeiten ihre Ausrichtung auf einer einzigen Ebene anpassen (daher der Name), um aus jedem Betrachtungswinkel genaue, naturgetreue Farben zu zeigen.

Leider ist nichts wirklich perfekt, da die meisten IPS-Monitore der Einstiegsklasse nicht die gleichen schnellen Reaktionszeiten und Bildwiederholraten haben wie PC-Monitore mit TN-Panel. Außerdem sind IPS-Monitore aufgrund ihrer hohen Bild- und Farbqualität und ihres hervorragenden Betrachtungserlebnisses in der Regel teurer als TN-Panels. Nichtsdestotrotz kann ein IPS-Monitor mit der richtigen adaptiven Synchronisierungstechnologie (siehe G-SYNC und AMD FreeSync unten) und den richtigen Computerspezifikationen möglicherweise die beste Lösung für großartig aussehende, leistungsstarke Spiele sein.

OLED im Kommen

Die Technologie der organischen Leuchtdioden (OLED), die in vielen aktuellen Fernsehern und Smartphones zu finden ist, ist derzeit für Computermonitore in Arbeit. Die OLED-Bildschirmtechnologie besteht aus kohlenstoffbasierten Materialien, die Licht emittieren, wenn sie mit Strom betrieben werden. Insgesamt benötigen OLED-Displays keine Hintergrundbeleuchtung oder Filter, um ihre Farben und bewegten Bilder zu erzeugen. Sie sind auch großartig für Hersteller, weil sie einfach herzustellen und physisch leicht sind, um einfach exportiert und geliefert werden zu können.

Die Hauptattraktion von OLED-Monitoren wird sein, dass jedes Pixel des Displays seine eigene Lichtquelle hat, um letztendlich schwärzere Schwarztöne und wahrheitsgetreuere Farben auf der ganzen Linie zu erzeugen. 2021 könnte das Jahr sein, in dem wir mehr über diese Technologie für Computermonitore hören, also stellen Sie sicher, dass Sie hier für alle Updates zurückkommen.

VA

Bei den in den 90er Jahren entwickelten VA-Panels (Vertical-Alignment) befinden sich die Flüssigkristallzellen in einer vertikalen Position, wenn das Display nicht verwendet wird. Sobald Spannung an das Display angelegt wird, verschieben sich die Kristalle in eine horizontale Ausrichtung, um Licht und letztendlich Ihr Bild durchzulassen. Ähnlich wie IPS-Panels wurden VA-Computermonitore entwickelt, um eine alternative Option zu den Vorgängermonitoren mit TN-Panels zu bieten.

Mit anständigen Bildwiederholraten (in den meisten Fällen nicht ganz auf TN-Niveau) haben VA-Monitore mit ihren vielseitigeren Pixeln einen besseren Farbkontrast und eine größere Bildtiefe. Eine höhere Bittiefe bedeutet, dass mehr Farben auf jedem Pixel verwendet werden können. Obwohl VA-Monitore bessere Betrachtungswinkel als TN-Panels haben (in der Regel nicht so sehr wie IPS), sind sie aufgrund ihrer langsamen Reaktionszeiten besser für den allgemeinen Gebrauch geeignet, z. B. für Home-Streaming oder Büroanwendungen.

 

 

Mobilitätshilfen für Senioren – Augmented Reality und mehr für die Pflegebranche

Mobilitätshilfen für Senioren – Augmented Reality und mehr für die Pflegebranche

Für viele Menschen sind Bewegung und Mobilität Faktoren, die ihre Lebensqualität entscheidend beeinflussen. Nur wer sich regelmäßig bewegt, bleibt fit, vital und mobil. Wenn die Mobilität mit zunehmendem Alter immer weiter eingeschränkt wird, ist es wichtig, die Mobilität und die damit verbundene Selbstständigkeit und Lebensqualität so lange wie möglich aufrecht zu erhalten. Ab einem bestimmten Punkt sind jedoch oftmals Hilfsmittel nötig und sinnvoll.

Senioren, die in ihrer Gehfähigkeit eingeschränkt sind, können auf verschiedene Mobilitätshilfen zurückgreifen. Zur Überwindung von Treppen oder Stufen können hierzu Treppenlifte oder wahlweise Rampen genutzt werden.

Für Menschen, die körperlich nicht mehr auf Hilfsmittel verzichten können, sollte auch das Umfeld so barrierefrei wie möglich gestaltet werden. Dies erleichtert es der pflegebedürftigen Person enorm, ihren Alltag zu bewältigen. Aber auch pflegende Angehörige oder Pflegekräfte können Aufgaben des täglichen Bedarfs so deutlich einfacher handhaben.

Hierfür werden zunehmend neue Technologien und Methoden eingesetzt. Dank Augmented Reality (AR) ist es zum Beispiel möglich, einen individuellen Treppenlift in den eigenen vier Wänden digital zu betrachten und an die eigenen Wünsche und Bedürfnisse anzupassen – dies alles noch vor dem Kauf des Geräts. Hier unser Artikel zu VR / Virtual Reality für alle die nicht wissen um was es geht.

Der Weg zum Treppenlift in den eigenen vier Wänden

Eine der Mobilitätshilfen für Senioren im Alltag stellt definitiv der Treppenlift dar.

Viele Senioren leiden unter Gelenk- und Muskelproblemen. Diese verursachten Schmerzen beim Treppensteigen und jeder Schritt wird zur Qual. Oft werden dadurch Räume in nicht ebenerdigen Etagen unzugänglich, weil die Anstrengung und die Sturzgefahr überwiegen. Noch schlimmer ist es, wenn Sie beispielsweise im vierten Stock zu Hause sind und es keine Alternative zur Treppe gibt.

In all diesen Fällen ist die Anschaffung eines Treppenlifts oder Plattformlifts eine gute Idee. Treppenlifte werden nach Maß gefertigt und an der betreffenden Treppe installiert. Für Rollstuhlfahrer gibt es spezielle Plattformlifte. Beide Lifte können problemlos mit einer Hand bedient werden. Neben Rollstühlen können auch andere Lasten, wie Einkaufstaschen oder Möbel, mit einem Plattformlift transportiert werden.

Rampen können ebenfalls eingesetzt werden, um Rollstuhlfahrern das Überwinden von Stufen zu ermöglichen. Ebenfalls können diese für Menschen eingesetzt werden, die zwar gehen, aber keine Treppen mehr steigen können.

Neben Treppenliften und Plattformliften gibt es noch weitere Varianten, wie beispielsweise den Sessellift. Der Treppenlift mit Sitz befördert den Benutzer mit Hilfe eines Sitzes, der sich über Schienen an der Treppenwand nach oben bewegt, in höher gelegene Etagen.

Obwohl die Anschaffung eines solchen Lifts eine große Erleichterung darstellt, ist diese auch mit einigen Kosten verbunden. Es gibt unter Umständen jedoch die Möglichkeit einen Zuschuss zu beantragen. Ebenfalls können Lifte auch gemietet, anstatt gekauft werden – dies spart eventuell Geld.

Eine weitere Möglichkeit für Barrierefreiheit ist der Hausaufzug. Dank der platzsparenden, innovativen Antriebstechnik und der schmalen Kabine ist ein nachträglicher Einbau kein Problem. Wer sich für einen Hausaufzug entscheidet, kann nach Wunsch zwischen einem maßgeschneiderten Privataufzug, einem günstigeren Komfortaufzug und einer vertikal befahrbaren Plattform wählen.

Weiterführende Informationen zu verschiedenen Treppenliftmodellen, Preise und Finanzierung finden Sie auf dem Treppenlift Ratgeberportal treppenliftdirekt.de.

Mit Hilfe von Augmented Reality zum individuellen Treppenlift

Wer dringend einen Treppenlift benötigt oder sich einen Eindruck verschaffen möchte, wie der zukünftige Treppenlift in den eigenen vier Wänden aussehen würde, kann dies mit Hilfe eines 3D-Treppenliftkonfigurator tun. Dabei kommt die oben genannte AR-Technologie zum Einsatz.

Mit einer passenden App kann das passende Modell ganz einfach am Tablet oder Smartphone ausgewählt, personalisiert und in die häusliche Umgebung übertragen werden, ganz so als wäre der Lift bereits eingebaut. Dank moderner Technik und dreidimensionaler Bilder können Sie sich so einen sehr realistischen Eindruck verschaffen.

Neben einem detaillierten Eindruck bietet der Einsatz von Augmented Reality noch weitere Vorteile. So verkürzt sich zum Beispiel die Lieferzeit eines Treppenlifts von zehn auf zwei Wochen. Das liegt daran, dass das Treppenhaus und die Treppen bereits beim ersten Termin vermessen werden können.

Eine Visualisierung auf dem Tablet oder Smartphone zeigt, wie der zukünftige Treppenlift später im Haus aussehen wird. So wird schon im Vorfeld ein genaues Bild des eigenen Zuhauses skizziert und die Kaufentscheidung vereinfacht.

Mehr und mehr Digitalisierung in der gesamten Pflegebranche

Doch nicht nur der Kauf eines Treppenlifts wird mehr und mehr durch digitale Hilfsmittel erleichtert, mehr und mehr Mobilitätshilfen für Senioren erhalten vor und nach dem Kauf digitale Ergänzungen oder Unterstützung.

Zum Einsatz kommt hier oftmals die HoloLens Brille. Mit Hilfe dieser möchte das Unternehmen thyssenkrupp in Zukunft die gesamte Produktionskette digitalisieren. Alle Schritte vom Aufmaß bei Ihnen zu Hause, bis hin zur Fertigung.

Tyssenkrupp gilt als einer der führenden Hersteller von Treppenliften und anderen Mobilitätshilfen für Senioren.

Allgemeine Tipps für den Kühlschrankkauf

Allgemeine Tipps für den Kühlschrankkauf

Kühlschränke im Spiegel der Zeit – Wie andere technische Geräte auch, haben sich Kühlschränke in den letzten Jahrzehnten erheblich weiterentwickelt. Sie kühlen nun in verschiedenen Kühlzonen, können sich ideal auf die Bedürfnisse bestimmter Lebensmittel einstellen und bieten Zusatzfunktionen wie eine Abtauoption, einen Wasserspender sowie einen Eiswürfelspender. Insofern besticht ein hochwertiger Kühlschrank heute nicht nur durch eine hohe Qualität, sondern auch durch eine üppige Funktionsvielfalt sowie ein Maximum an Komfort. Wir erklären, was moderne Kühlschränke heute schon können und von welchen Extras Sie profitieren.

Eine Faustformel für die Platzermittlung

Ein zu kleiner Kühlschrank sorgt für eine ungewollte Askese, während ein zu großer Kühlschrank zu große Mengen an Energien beansprucht. Insofern sollte sich jeder Kunde vor dem Kauf eines Kühlschranks Gedanken über die nötige Kapazität machen. Die Verbraucherzentrale Rheinlandpfalz hilft bei der Entscheidung mit einer Faustformel weiter. Ihr nach benötigt ein Single einen Kühlschrank mit der Kapazität von 100 Litern. Für jede weitere Person im Haushalt kommen 50 Liter dazu, sodass nach dieser Formel eine fünfköpfige Familie einen Kühlschrank mit einem Stauraum von 300 Litern beansprucht.

Energiesparen leicht gemacht

Dass kleinere Kühlschränke geringere Energiemengen beanspruchen, ist allgemein bekannt. Doch auch die Energieeffizienzklassen helfen weiter. Ursprünglich gingen sie von A nach H, doch ist diese Wertung bereits obsolet geworden, weil der immer umweltbewusstere Kunde Haushaltsgeräte mit einem hohen Energieverbrauch mit Missachtung straft, sodass diese Haushaltsgeräte mit der

Zeit aus dem Verkehr genommen wurden. Somit ist die Energieeffizienzklasse A bei Kühlschränken heute die Norm. Wer sich selbst und der Umwelt etwas Gutes tun möchte, achtet deshalb lieber auf die Energieeffizienzklassen A+, A++ und A+++, denn mit jedem Plus lässt sich eine Energiemenge von ca. 20 % einsparen.

Warum nur zwischen Kühlfach und Eisfach unterscheiden?

Zugegeben, früher kannten Kühlschränke nur die Kühlung und Vereisung, doch im Laufe der Zeit sind weitere Entwicklungen hinzugekommen. So beherrschen fortschrittliche Kühlschränke auch die Kühlung bei annähernd 0 Grad, was empfindlichen Lebensmitteln wie Obst, Gemüse und Fisch zu einer noch längeren Haltbarkeit verhilft. Ob Biofresh, Vitafresh oder Longfresh, alle diese Begriffe bezeichnen eine solche Sonderkühlzone im Kühlschrank. Weitere Modelle unterscheiden bei der Sonderkühlzone sogar zwischen feucht und trocken, um weitere Haltbarkeitstage für die einzelnen Lebensmittel herauszuholen. So kühlen Obst, Früchte und Salate in der feuchten Sonderkühlzone am besten, während Fisch, Fleisch und Milch sich in der trockenen 0-Grad-Zone am wohlsten fühlt.

Das Eisfach ist nicht gleich Eisfach

Andere Modelle bieten ein Fach speziell für den Wein an, sodass der eigene Kühlschrank um ein Weinkühllager erweitert wird. Auch bei dem Eisfach lohnt sich ein differenzierter Blick, denn der Grad der Kühlung entscheidet signifikant über die Haltbarkeit der Produkte. So halten Eisfächer bei einer Minustemperatur von 6 Grad Celsius nur eine Woche frisch, während Eisfächer, die es auf eine Kühltemperatur von — 18 Grad Celsius bringen, die Woche in ein Jahr verwandeln.

Zahlreiche Sonderfunktionen für einen weiteren Nutzen und komfortablen Mehrwert

Neue Kühlschränke sind sogar an das Smart Home angeschlossen
Neue Kühlschränke sind sogar an das Smart Home angeschlossen

Eine digitale Temperaturanzeige ist ein nettes Gimmick und informiert passgenau über den jeweiligen Kühlungsgrad. Andere Modelle bieten einen Wasser- und einen Eiswürfelspender an. Gemeint ist damit die Möglichkeit, sich jederzeit ein gekühltes Grad Wasser einschenken zu können sowie sich an Eiswürfeln zu bedienen für den perfekten Sommerdrink. Andere Kühlschränke besitzen eine Kein-Geruch-Funktion, um die Übertragung strenger Gerüche von Lebensmitteln wie Fisch auf andere Lebensmittel zu verhindern.

LED-Leuchten wiederum simulieren Sonnenlicht im Sinne einer längeren Haltbarkeit, während eine antibakterielle Beschichtung mit dem Anspruch verfolgt wird, der Keimbildung entgegenzuwirken. Menschen mit einer gewissen Neigung zur Zerstreutheit profitieren von einem Warnton, wenn der Kühlschrank nicht richtig verschlossen wurde. Die Optionen Low-Frost und No-Frost beugen dem Abtauen vor. Während No-Frost dem Besitzer diese Arbeit vollständig abnimmt, reduziert Low-Frost die Frostbildung im Kühlschrank um immerhin 80 %.

DSP TNC mit voller APRS Fähigkeit / SCS Tracker

Oft ist ein aufwändiger PACTOR-Multicontroller mit entsprechenden Kosten gar nicht erforderlich, wenn z. B. Positions- oder Wetterdaten, Bakensignale oder andere wiederkehrende Informationen einfach über HF/VHF übertragen werden sollen.

Die Basis des TNC ist das AX.25-Protokoll, ausgestattet mit der von SCS entwickelten „Robust Packet Radio“ (RPR) Modulation für Kurzwelle.

Damit ist der Tracker ein kompletter TNC, mit voller APRS-Fähigkeit, Anschlüssen z.B. zum Einschalten des TRX und NMEA-GPS-Dateneingang.

Der Tracker kommuniziert mit dem PC über eine optisch isolierte USB-Schnittstelle, ist weitgehend QRM-frei und hat einen Sleep-Modus im APRS-Betrieb.

Bitte beachten Sie: Wenn die optionalen SCS-Kabeladapter für Funkgeräte/Empfänger verwendet werden sollen, wird zusätzlich das optionale Kabeladapter-Set SCS8180 benötigt!