Logitech-Webcams sind ausverkauft, aber Vorsicht vor namenlosen Alternativen bei Amazon

 
Da unsere Tochter nun seit einigen Wochen studiert, dachten wir, es wäre ganz gut, wenn wir uns ab und zu per Skype sprechen könnten. Wir würden das nicht über das Smartphone machen, sondern die restliche Familie würde zusammen am Fernsehen skypen. 

Also brauchten wir eine WebCam an der Glotze

Abgesehen davon, dass unser Gerät - ein nicht ganz altes Samsung - nicht mit Skype lief, was aber an Microsoft lag, und Skype zwar auch über ein Linux-Betriebssystem laufen kann, aber nicht über meinen kleinen 50 Euro Raspberry Pi ARM-Prozessor. Zum Glück gab's da noch ein altes Netbook von ACER, dessen Bildschirm nicht mehr lief.   

 
Raspberry PI 4

Es brauchte halt eine gute Webcam. 

Vor einigen Tagen war ich beim MediaMarkt. Es gab da nur eine einzige WebCam und die war nicht das, was ich mir vorgestellt habe. 

Außerdem was sie viel zu teuer.

Anna P. fand heraus, die Corona-Krise die Webcam-Preise explodiert hat. Auch bei Amazon waren die Computer Kamera beim Preisanstieg-Spitzenreiter ganz oben.

Webcams waren und sind Mangelware

Seit Beginn der Corona-Pandemie herrscht bei den Webcams der Ausnahmezustand: Der Lagerbestand ist nach wie vor auf einem sehr niedrigen Niveau und Besserung will sich kaum einstellen. Besonders im Vergleich zum Jahresbeginn wird deutlich, dass die Bestandszahlen massiv zurückgegangen sind.

 

  Dieser Zustand zeichnet sich auch in den Preisen ab: So muss man teilweise mit dem dreifachen des bisherigen Preises rechnen – wie beispielsweise die Logitech HD Webcam C270 deutlich erkennen lässt: Der HEK liegt 55 Euro über dem Normalpreis vom Februar.

Andriana P. ist auch der Meinung das Logitech-Webcams so gut wie ausverkauft  sind. 

Aber Vorsicht vor namenlosen Alternativen! 

Bei Amazon sieht die Auflistung einer Webcam von „ZILINK“ vielversprechend aus. Die USB-Kamera unterstützt eine Auflösung von 1080p, verfügt über eine integrierte Halterung und ein Mikrofon mit der Technologie „Double Noise Reduction“. Es wird sogar mit einem aufsteckbaren Sichtschutz geliefert, um das Objektiv abzudecken. Während die Kamera ordentliche Video produziert, ist das Bild so verwaschen, dass es ein grässliches Aussehen schafft, und das Mikrofon erzeugt nur leises, gedämpftes Audio auf dem linken Audiokanal. Die einzige Betriebsanzeige leuchtet ebenfalls ständig, sodass im Gegensatz zu den meisten Webcams nicht erkennbar ist, wann die Kamera aktiv ist.

Auch wir bei AIDOS würde für so eine Webcam jedenfalls in normalen Zeiten niemals 60  Euro bezahlen. 

W E I T E R 

   
   

Da die Coronavirus-Krise Millionen von Menschen gezwungen hat, von zu Hause aus zu arbeiten ist auch die Nachfrage nach Webcams gestiegen, und große Marken wie Logitech, die das eigenständige Webcam-Geschäft dominieren, können mit dem Wunsch der Käufer nicht mithalten. Bei eBay und Amazon wurde der exzellente C920S von Logitech für fast 200 US-Dollar verkauft und hat also den Listenpreis mehr als verdoppelt.

Die Frage ist was man dann machen kann? Eine schlechte teure Kamera kaufen? 

Die Situation hat eine Gelegenheit für billige, generische Alternativen geschaffen, deren Preis bei Amazon zwischen 40 und 70 Euro liegt. Die Markennamen sind nicht wiederzuerkennen und in einigen Fällen kaum auszusprechen, aber im Vergleich zu den Webcams von Logitech haben sie einen großen Vorteil: Sie können sie tatsächlich in angemessener Zeit liefern lassen. 

Heißt das auch, dass wir solch eine Gerät kaufen sollten. 

Wie zu erwarten war, wurde Logitech von der steigenden Nachfrage nach Webcams überrascht und verfügte nicht über das entsprechende Angebot.

"Unsere Fabriken sind gut positioniert, um die" normalen "Anforderungen unseres Geschäfts zu erfüllen", sagt Scott Wharton, General Manager und Vice President für Videokollaboration bei Logitech. "Die Ereignisse der letzten Monate haben diese Nachfrage jedoch erheblich verändert, und wir steigern die Produktion, um diesen Anforderungen gerecht zu werden."

Für einen großen Anbieter wie Logitech ist es jedoch nicht einfach, die Produktion hochzufahren. Stephen Baker, Analyst für die Technologiebranche bei der NPD Group, sagt, Webcams seien ein Markt mit geringem Volumen. Das erstellen weiterer Kameras bedeutet, alle erforderlichen Komponenten zu beschaffen und die Zeit für den Bau einer Fabrik zu finden. Anschließend werden die Produkte in loser Schüttung an Einzelhandelspartner geliefert. Produktionsstillstände in China im Januar und Februar dürften die Schwierigkeiten noch verschärfen.


"Es ist unwahrscheinlich, dass nur eine Montagelinie auf Logitech-Webcam-Bestellungen wartet", sagt Baker weiter. "Sie bauen sie normalerweise nur ein paar Mal im Jahr, um eine gewisse Effizienz zu erzielen."

Im Vergleich dazu können billige Webcam-Anbieter in China einen viel flinkeren Betrieb ausführen. Sie können eine kleine Anzahl von Komponenten sammeln, eine begrenzte Menge von Produkten produzieren und dann kleine Chargen an lokale Lager (oder direkt an Kunden) zum Verkauf über den Amazon Marketplace versenden.

„Wenn es einen Mangel gibt, ist es in den Fabriken oftmals möglich, begrenzte Mengen zu produzieren und einzeln zu versenden“, sagt Baker. Dies ist für einen großen Anbieter wie Logitech nicht möglich.

Baker schätzt, dass die Webcams, die Amazon überflutet haben, vor der Pandemie für etwa die Hälfte ihrer aktuellen Preise verkauft wurden, aber es gibt keine einfache Möglichkeit, dies sicher zu wissen. Die meisten dieser Kameras sind erst in den letzten ein oder zwei Monaten bei Amazon aufgetaucht. Das bedeutet, dass Sie auf der Amazon-Preis Verfolgen Seite nicht sehen können, was sie vor einem Jahr gekostet hätten.

Ich habe mich nach meinem Erlebnis mit Media Markt bei Amazon umgeschaut. Selbst bei 30 Euro hätte ich mich von der ZILINK-Webcam, die ich hier kaufen sollte Woche betrogen gefühlt. Fürs Büro hatte ich zum Glück einen Logitech C920S gekauft habe. Fürs Skype über das Fernsehen warte ich noch.

Bei so vielen generischen Marken, die bei Amazon auftauchen, wäre es interessant, ob die Alternativen in Ordnung sind.

Bei diesen beiden Kameraden kann man feststellen, dass der Unterschied groß ist. Die Logitech-Kamera kann die Lichtverhältnisse im Raum viel besser ausgleichen - kein schreckliches Weiß mehr - und ihre Mikrofone erzeugen ein klares Audio, sodass kein externes Mikrofon erforderlich war. Die Kamera zeigt auch deutlich an, wann sie aktiv ist, mit blauen Lichtringen auf beiden Seiten des Kameragehäuses.

Um sicherzugehen, dass dies kein Zufall ist, habe ich nach dem Testen der ersten Kamera bei Amazon eine andere Kamera gekauft, diesmal von einem Anbieter namens Trobing. Obwohl diese Kamera zum Zeitpunkt des Schreibens eine Fünf-Sterne-Bewertung mit sechs Bewertungen hat, war die Bildqualität noch schlechter als bei der ZILINK-Kamera, wobei zusätzlich zu ihrer Überbelichtung ein bläulicher Farbton hinzugefügt wurde. Das Mikrofon hat zwar nicht das gleiche Einkanal-Audioproblem wie die ZILINK-Kamera, ist jedoch gleichermaßen gedämpft und leise und hat überhaupt keine Lichtanzeige.

Scott Wharton von Logitech weist auf mehrere Vorteile für seine Kameras hin: Das Unternehmen stellt seine eigenen Objektive her, anstatt generische Komponenten zu verwenden, und seine Software verfügt über einen integrierten Autofokus und eine Lichtkorrektur, sodass schwierige Lichtsituationen auf eine Weise ausgeglichen werden können, die billige Webcams können.

Nichts davon wird ein großer Trost für Leute sein, die auf lange Sicht von zu Hause aus arbeiten wollen und eine bessere Kamera wollen. Laut Wharton hat Logitech die empfohlenen Preise nicht erhöht, kontrolliert jedoch nicht die von Einzelhändlern festgelegten Preise. Und natürlich kann es Drittanbieter von Amazon oder eBay-Verkäufer nicht davon abhalten, verzweifelte Mitarbeiter in der Nähe von 200 Euro pro Kamera zu bezahlen.

Die gute Nachricht ist, dass Logitech sagt, dass die Hardware-Produktion im allgemeinen günstige werden wird. Wharton verweist auf die jüngsten Äußerungen von CEO Bracken Darrell, wonach die Lieferkette des Unternehmens jetzt gut funktioniert, nachdem sie Ende März aufholen musste.

"Wir haben die Produktion aggressiv gesteigert, um uns auf mehr Mengen an Webcams zu konzentrieren, um die Nachfrage zu befriedigen", sagt Wharton. "Wir nutzen jede Vertriebsoption, um das Angebot zu verbessern."

Halten Sie sich in der Zwischenzeit von diesen Amazon-Kameras fern. Wenn Sie sich auf einem Desktop-Computer befinden, sollten Sie Ihr Telefon stattdessen nur als externe Webcam verwenden.

Wann sich die Verfügbarkeiten wieder normalisieren, bleibt abzuwarten. Mit den Impfstoffen, die Ende des Jahres bereitgestellt werden sollen, stehen die Chancen gut, dass sich die Lage im nächsten Jahr verbessert und Arbeitnehmer wieder mehrheitlich zurück in die Büros kehren können. Und damit wird vermutlich auch die Nachfrage nach Homeoffice-tauglichen Geräten zurückgehen.

 

   
   

 

...

Voice-Cloning-Unternehmen sind auch von medizinischen Anwendungen begeistert. Natürlich ist das Ersetzen von Stimmen in der Medizin nichts Neues - Stephen Hawking verwendete bekanntermaßen eine synthetisierte Roboterstimme, nachdem er 1985 seine eigene verloren hatte. Das moderne Klonen von Stimmen verspricht jedoch etwas noch Besseres.

Im Jahr 2008 gab die synthetische Sprachfirma CereProc dem verstorbenen Filmkritiker Roger Ebert seine Stimme zurück, nachdem Krebs sie weggenommen hatte. CereProc hatte eine Webseite veröffentlicht, auf der Menschen Nachrichten eingeben konnten, die dann mit der Stimme des ehemaligen Präsidenten George Bush gesprochen wurden.

"Ebert sah das und dachte:" Nun, wenn sie Bushs Stimme kopieren könnten, könnten sie meine kopieren können ", sagte Matthew Aylett, wissenschaftlicher Leiter von CereProc. Ebert bat das Unternehmen dann, eine Ersatzstimme zu erstellen, indem sie eine große Bibliothek von Sprachaufzeichnungen verarbeiteten.

"Es war eines der ersten Male, dass jemand das getan hat, und es war ein echter Erfolg", sagte Aylett.

In den letzten Jahren haben eine Reihe von Unternehmen (einschließlich CereProc) mit der ALS Association on Project Revoice zusammengearbeitet , um Menschen, die an ALS leiden, synthetische Stimmen zur Verfügung zu stellen.

 

Die ALS Association

Wie künstliches Audio funktioniert

Das Klonen von Stimmen hat gerade einen Boom und eine Reihe von Unternehmen entwickeln Tools. Neben Resemble AI und Descript gibt es  andere Online-Demos, die jeder kostenlos ausprobieren kann. Sie zeichnen die Phrasen auf, die auf dem Bildschirm angezeigt werden, und in wenigen Minuten wird ein Modell Ihrer Stimme erstellt.

Sie können AI - insbesondere Deep-Learning-Algorithmen - dafür danken, dass sie aufgezeichnete Sprache mit Text abgleichen können, um die Phoneme zu verstehen, aus denen Ihre Stimme besteht. Anschließend werden die resultierenden sprachlichen Bausteine ​​verwendet, um Wörter zu Verbesserung, die Sie nicht richtig gesagt haben.

Die Basistechnologie gibt es schon eine Weile, aber wie Aylett betonte, brauchte sie Hilfe.

"Das Kopieren der Stimme war ein bisschen wie das Backen von Gebäck", sagte er. "Es war ziemlich schwierig und es gab verschiedene Möglichkeiten, es von Hand zu optimieren, damit es funktioniert."

Entwickler benötigten enorme Mengen aufgezeichneter Sprachdaten, um passable Ergebnisse zu erzielen. Dann, vor einigen Jahren, öffneten sich die Schleusen. Die Forschung auf dem Gebiet der Computer Vision erwies sich als kritisch. Wissenschaftler entwickelten generative kontradiktorische Netzwerke (GANs), die zum ersten Mal auf der Grundlage vorhandener Daten extrapolieren und Vorhersagen treffen konnten.

"Anstatt dass ein Computer ein Bild von einem Pferd sieht und sagt, dass dies ein Pferd ist, könnte mein Modell jetzt aus einem Pferd ein Zebra machen", sagte Aylett. "Die Explosion in der Sprachsynthese ist jetzt der akademischen Arbeit von Computer Vision zu verdanken."

Eine der größten Neuerungen beim Klonen von Stimmen war die allgemeine Reduzierung des Rohdatenbedarfs für die Erstellung einer Stimme. In der Vergangenheit benötigten Systeme Dutzende oder sogar Hunderte von Stunden Audio. Jetzt können jedoch kompetente Stimmen aus nur wenigen Minuten Inhalt generiert werden.

Das Problem mit der KI: Maschinen lernen Dinge, können sie aber nicht verstehen

Die existenzielle Angst, nichts zu vertrauen

Diese Technologie ist zusammen mit Kernkraft, Nanotechnologie, 3D-Druck und CRISPR gleichzeitig aufregend und erschreckend. Immerhin gab es in den Nachrichten bereits Fälle, in denen Menschen von Sprachklonen betrogen wurden. Im Jahr 2019 behauptete ein Unternehmen in Großbritannien, es sei durch einen Audio-Deep - Fake- Telefonanruf dazu verleitet worden, Geld an Kriminelle zu überweisen .

Sie müssen auch nicht weit gehen, um überraschend überzeugende Audio-Fälschungen zu finden. Der YouTube-Kanal Vocal Synthesis zeigt bekannte Leute, die Dinge sagen, die sie nie gesagt haben, wie  George W. Bush, der „In Da Club“ um 50 Cent liest. Es ist genau richtig.

An anderer Stelle auf YouTube können Sie eine Schar ehemaliger Präsidenten hören, darunter Obama, Clinton und Reagan, die NWA rappen . Die Musik und die Hintergrundgeräusche helfen dabei, einige der offensichtlichen Roboterfehler zu verschleiern, aber selbst in diesem unvollkommenen Zustand ist das Potenzial offensichtlich.

Wir haben mit den Tools von Resemble AI und Descript experimentiert und einen Sprachklon erstellt. Descript verwendet eine Voice-Cloning-Engine, die ursprünglich Lyrebird hieß und besonders beeindruckend war. Wir waren schockiert über die Qualität. Wenn Sie hören, wie Ihre eigene Stimme Dinge sagt, von denen Sie wissen, dass Sie sie noch nie gesagt haben, ist dies beunruhigend.

Die Rede hat definitiv eine Roboterqualität, aber bei einem gelegentlichen Hören hätten die meisten Menschen keinen Grund zu der Annahme, dass es sich um eine Fälschung handelt.


Wir hatten noch größere Hoffnungen auf Resemble AI. Es bietet Ihnen die Werkzeuge, um eine Konversation mit mehreren Stimmen zu erstellen und die Ausdruckskraft, Emotion und Geschwindigkeit des Dialogs zu variieren. Wir dachten jedoch nicht, dass das Sprachmodell die wesentlichen Eigenschaften der von uns verwendeten Stimme erfasst. Tatsächlich war es unwahrscheinlich, dass jemand zum Narren gehalten wurde.

Ein Mitarbeiter von Resemble AI sagte uns: "Die meisten Menschen sind von den Ergebnissen überwältigt, wenn sie es richtig machen." Wir haben zweimal ein Sprachmodell mit ähnlichen Ergebnissen erstellt. Offensichtlich ist es nicht immer einfach, einen Sprachklon zu erstellen, mit dem Sie einen digitalen Überfall auslösen können.

Trotzdem hat Kundan Kumar, der Gründer von Lyrebird (der jetzt Teil von Descript ist), das Gefühl, dass wir diese Schwelle bereits überschritten haben.

"Für einen kleinen Prozentsatz der Fälle ist es bereits da", sagte Kumar. "Wenn ich synthetisches Audio verwende, um ein paar Wörter in einer Rede zu ändern, ist es bereits so gut, dass es Ihnen schwer fällt, zu wissen, was sich geändert hat."

Wir können auch davon ausgehen, dass diese Technologie erst mit der Zeit besser wird. Systeme benötigen weniger Audio, um ein Modell zu erstellen, und schnellere Prozessoren können das Modell in Echtzeit erstellen. Eine intelligentere KI wird lernen, wie man eine überzeugendere menschenähnliche Trittfrequenz und Betonung der Sprache hinzufügt, ohne ein Beispiel zu haben, an dem man arbeiten kann.

Dies bedeutet, dass wir uns möglicherweise der weit verbreiteten Verfügbarkeit des mühelosen Klonens von Stimmen nähern.

Die Ethik der Büchse der Pandora

Die meisten Unternehmen, die in diesem Bereich arbeiten, scheinen bereit zu sein, mit der Technologie auf sichere und verantwortungsvolle Weise umzugehen. Ähnliche KI hat zum Beispiel einen ganzen Abschnitt „Ethik“ auf seiner Website , und der folgende Auszug ist ermutigend:

"Wir arbeiten mit Unternehmen in einem strengen Prozess zusammen, um sicherzustellen, dass die Stimme, die sie klonen, von ihnen verwendet werden kann, und um die richtigen Einwilligungen für Sprachschauspieler zu erhalten."

 

Ebenso sagte Kumar, Lyrebird sei von Anfang an besorgt über Missbrauch. Aus diesem Grund können Benutzer als Teil von Descript nur noch ihre eigene Stimme klonen. Tatsächlich erfordern sowohl Resemble als auch Descript, dass Personen ihre Samples live aufzeichnen, um ein nicht einvernehmliches Klonen von Stimmen zu verhindern.

Es ist ermutigend, dass die großen kommerziellen Akteure einige ethische Richtlinien auferlegt haben. Es ist jedoch wichtig, sich daran zu erinnern, dass diese Unternehmen keine Gatekeeper dieser Technologie sind. Es gibt bereits eine Reihe von Open-Source-Tools, für die es keine Regeln gibt. Laut Henry Ajder, Leiter der Abteilung für Bedrohungsinformationen bei  Deeptrace , benötigen Sie auch keine fortgeschrittenen Codierungskenntnisse, um sie zu missbrauchen.

"Ein Großteil der Fortschritte in diesem Bereich ist auf die Zusammenarbeit an Orten wie GitHub zurückzuführen, bei der Open-Source-Implementierungen zuvor veröffentlichter akademischer Arbeiten verwendet wurden", sagte Ajder. "Es kann von jedem verwendet werden, der über mäßige Kenntnisse im Codieren verfügt."

 

Sicherheitsprofis haben das alles schon einmal gesehen

Kriminelle haben versucht, Geld per Telefon zu stehlen, lange bevor das Klonen von Stimmen möglich war, und Sicherheitsexperten waren immer auf Abruf, um es zu erkennen und zu verhindern. Die Sicherheitsfirma Pindrop versucht, Bankbetrug zu stoppen, indem sie überprüft, ob ein Anrufer derjenige ist, von dem er behauptet, er sei aus dem Audio. Allein im Jahr 2019 soll Pindrop 1,2 Milliarden Sprachinteraktionen analysiert und Betrugsversuche in Höhe von rund 470 Millionen US-Dollar verhindert haben.

Vor dem Klonen von Stimmen versuchten Betrüger eine Reihe anderer Techniken. Am einfachsten war es, von woanders mit persönlichen Informationen über die Marke anzurufen.

"Mit unserer akustischen Signatur können wir feststellen, dass ein Anruf aufgrund der Klangeigenschaften tatsächlich von einem Skype-Telefon in Nigeria kommt", sagte Vijay Balasubramaniyan, CEO von Pindrop. "Dann können wir vergleichen, dass der Kunde in Atlanta ein AT & T-Telefon verwendet."

Einige Kriminelle haben auch Karriere gemacht, indem sie Hintergrundgeräusche verwendet haben, um Bankvertreter abzuwerfen.

"Es gibt einen Betrüger, den wir Chicken Man genannt haben und der immer Hähne im Hintergrund hatte", sagte Balasubramaniyan. "Und es gibt eine Frau, die ein Baby benutzt hat, das im Hintergrund weint, um die Call-Center-Agenten im Wesentlichen davon zu überzeugen, dass 'Hey, ich mache eine schwere Zeit durch', um Sympathie zu bekommen."

Und dann gibt es die männlichen Kriminellen, die sich um die Bankkonten von Frauen kümmern.

"Sie verwenden Technologie, um die Frequenz ihrer Stimme zu erhöhen und weiblicher zu klingen", erklärte Balasubramaniyan. Diese können erfolgreich sein, aber "gelegentlich bringt die Software Probleme und sie klingen wie Alvin und die Chipmunks."

Natürlich ist das Klonen von Stimmen nur die neueste Entwicklung in diesem immer eskalierenden Krieg. Sicherheitsfirmen haben bereits bei mindestens einem Speerfischangriff Betrüger mit synthetischem Audio gefasst.

"Mit dem richtigen Ziel kann die Auszahlung massiv sein", sagte Balasubramaniyan. "Es ist also sinnvoll, die Zeit darauf zu verwenden, eine synthetisierte Stimme des richtigen Individuums zu erstellen."

Kann jemand sagen, ob eine Stimme gefälscht ist?

Sergey Nivens / Shutterstock
Wenn es darum geht zu erkennen, ob eine Stimme gefälscht wurde, gibt es sowohl gute als auch schlechte Nachrichten. Das Schlimme ist, dass Sprachklone von Tag zu Tag besser werden. Deep-Learning-Systeme werden intelligenter und erzeugen authentischere Stimmen, für deren Erstellung weniger Audio erforderlich ist.

Wie Sie diesem Clip von Präsident Obama entnehmen können, der MC Ren auffordert, Stellung zu beziehen , sind wir auch bereits an einem Punkt angelangt, an dem ein sorgfältig konstruiertes High-Fidelity-Sprachmodell für das menschliche Ohr ziemlich überzeugend klingen kann.

Je länger ein Soundclip ist, desto wahrscheinlicher ist es, dass Sie feststellen, dass etwas nicht stimmt. Bei kürzeren Clips bemerken Sie jedoch möglicherweise nicht, dass es synthetisch ist - insbesondere, wenn Sie keinen Grund haben, seine Legitimität in Frage zu stellen.

Je klarer die Klangqualität ist, desto leichter ist es, Anzeichen einer Audio-Deepfake zu erkennen. Wenn jemand direkt in ein Mikrofon in Studioqualität spricht, können Sie genau hinhören. Eine Aufzeichnung von Telefonanrufen von schlechter Qualität oder ein Gespräch, das auf einem Handheld-Gerät in einem lauten Parkhaus aufgezeichnet wurde, ist jedoch viel schwieriger zu bewerten.

Die gute Nachricht ist, dass Computer nicht die gleichen Einschränkungen haben, auch wenn Menschen Probleme haben, echte von gefälschten zu trennen. Glücklicherweise gibt es bereits Tools zur Sprachüberprüfung. Pindrop hat eines, bei dem Deep-Learning-Systeme gegeneinander antreten. Es verwendet beide, um herauszufinden, ob ein Audio-Sample die Person ist, die es sein soll. Es wird jedoch auch untersucht, ob ein Mensch überhaupt alle Geräusche im Sample erzeugen kann.

Abhängig von der Audioqualität enthält jede Sekunde der Sprache zwischen 8.000 und 50.000 Datenproben, die analysiert werden können.

"Die Dinge, nach denen wir normalerweise suchen, sind Einschränkungen der Sprache aufgrund der menschlichen Evolution", erklärte Balasubramaniyan.

Zum Beispiel haben zwei Vokaltöne eine minimal mögliche Trennung voneinander. Dies liegt daran, dass es physisch nicht möglich ist, sie schneller zu sagen, da sich die Muskeln in Ihrem Mund und die Stimmbänder selbst neu konfigurieren können.

"Wenn wir uns synthetisiertes Audio ansehen", sagte Balasubramaniyan, "sehen wir manchmal Dinge und sagen:" Dies hätte niemals von einem Menschen erzeugt werden können, weil die einzige Person, die dies hätte erzeugen können, einen sieben Fuß langen Hals haben muss. " ”

Es gibt auch eine Klangklasse namens "Frikative". Sie entstehen, wenn Luft durch eine enge Verengung in Ihrem Hals strömt, wenn Sie Buchstaben wie f, s, v und z aussprechen. Frikative sind für Deep-Learning-Systeme besonders schwer zu beherrschen, da die Software Probleme hat, sie von Rauschen zu unterscheiden.

Zumindest für den Moment stolpert die Software zum Klonen von Stimmen über die Tatsache, dass Menschen Fleischsäcke sind, die Luft durch Löcher in ihrem Körper strömen lassen, um zu sprechen.

"Ich scherze immer wieder, dass Deepfakes sehr weinerlich sind", sagte Balasubramaniyan. Er erklärte, dass es für Algorithmen sehr schwierig ist, die Enden von Wörtern von Hintergrundgeräuschen in einer Aufnahme zu unterscheiden. Dies führt zu vielen Sprachmodellen mit Sprache, die mehr nachlässt als Menschen.

"Wenn ein Algorithmus sieht, dass dies häufig vorkommt", sagte Balasubramaniyan, "wird es statistisch gesehen sicherer, dass Audio im Gegensatz zu Menschen erzeugt wird."

Resemble AI löst das Erkennungsproblem auch direkt mit dem Resemblyzer, einem Open-Source-Deep-Learning-Tool, das auf GitHub verfügbar ist . Es kann gefälschte Stimmen erkennen und die Sprecher überprüfen.

Es braucht Wachsamkeit

Es ist immer schwer zu erraten, wie die Zukunft aussehen könnte, aber diese Technologie wird mit ziemlicher Sicherheit nur noch besser. Außerdem könnte jeder potenziell ein Opfer sein - nicht nur hochkarätige Personen wie gewählte Beamte oder Bankchefs.

"Ich denke, wir stehen kurz vor der ersten Audio-Verletzung, bei der die Stimmen der Leute gestohlen werden", sagte Balasubramaniyan voraus.

Im Moment ist das reale Risiko von Audio-Deepfakes jedoch gering. Es gibt bereits Tools, mit denen sich synthetische Videos recht gut erkennen lassen.

Außerdem sind die meisten Menschen keinem Angriffsrisiko ausgesetzt. Laut Ajder arbeiten die wichtigsten kommerziellen Akteure "an maßgeschneiderten Lösungen für bestimmte Kunden und die meisten haben ziemlich gute ethische Richtlinien, mit wem sie zusammenarbeiten würden und mit wem nicht."

Die wirkliche Bedrohung liegt jedoch vor uns, als Ajder weiter erklärte:

"Pandora's Box wird Menschen sein, die Open-Source-Implementierungen der Technologie zu immer benutzerfreundlicheren, zugänglicheren Apps oder Diensten zusammenschustern, die nicht die ethische Kontrollebene haben, die kommerzielle Lösungen derzeit bieten."

Dies ist wahrscheinlich unvermeidlich, aber Sicherheitsunternehmen haben bereits gefälschte Audioerkennung in ihre Toolkits integriert. Dennoch erfordert es Wachsamkeit, um sicher zu sein.

"Wir haben dies in anderen Sicherheitsbereichen getan", sagte Ajder. „Viele Unternehmen verbringen viel Zeit damit, zu verstehen, was beispielsweise die nächste Zero-Day-Sicherheitsanfälligkeit ist. Synthetisches Audio ist einfach die nächste Grenze. “

 

 

 

Video DEEPFAKES bedeutet, dass sie nicht immer Ihren Augen glauben können, wenn sie etwas sehen. Jetzt können Audio-Deepfakes bedeuten, dass Sie Ihren Ohren nicht mehr vertrauen können. War das wirklich der Chef, der per Skype wegen der Rechnung anrief und den PIN der Bankkarte brauchte? Ist das wirklich dein Vater am Telefon, der nach seinem E-Mail-Passwort fragte?

Fügen Sie der Liste der Welt eine weitere existenzielle Sorge hinzu. Es gibt technologischen Risiken wie z.b. die Bedrohung durch nukleare, chemische und biologische Kriegsführung.
In den vergangenen Jahrzehnten hatten wir schon mehrfach Gelegenheit gehabt von so mancher Gänsehaut besessen zu sein. Globalen Epidemien oder die Klimakrise und jetzt haben wir das maschinelle Lernen von Fälschungen. Wir haben auch noch die Kontrolle der Menschen über ihre Ähnlichkeit der Stimme verloren.

Was genau ist ein Audio Deepfake?

Die meisten von uns haben ein Video Deepfake gesehen, in dem Deep-Learning-Algorithmen verwendet werden, um eine Person durch die Ähnlichkeit einer anderen Person zu ersetzen. Die besten Videos sind nervenaufreibend realistisch.

Und jetzt ist Audio an der Reihe. Eine Audio-Deepfake liegt vor, wenn eine „geklonte“ Stimme, die möglicherweise nicht von der realen Person zu unterscheiden ist, zur Erzeugung von künstlichem Audio verwendet wird.

 

"Es ist wie Photoshop für Sprache", sagte Zohaib Ahmed, CEO von Resemble AI, über die Voice-Cloning-Technologie seines Unternehmens.

Schlechte Photoshop-Jobs können jedoch oft leicht entlarvt werden. Und noch! Da es sich bei so vielen Sprachaufzeichnungen um Telefonanrufe von geringer Qualität handelt (oder an lauten Orten aufgezeichnet werden), können Audio-Deepfakes noch ununterscheidbarer gemacht werden. Je schlechter die Klangqualität ist, desto schwieriger ist es, diese verräterischen Anzeichen dafür zu erkennen, dass eine Stimme nicht real ist.


Aber warum soll jemand einen “Photoshop für Stimmen” überhaupt brauchen?

Der überzeugende Fall für synthetisches Audio

Es gibt tatsächlich eine enorme Nachfrage nach synthetischem Audio. Laut Ahmed ist „der ROI sehr unmittelbar“.

Dies gilt insbesondere für Spiele. In der Vergangenheit war Sprache die einzige Komponente in einem Spiel, die bei Bedarf nicht erstellt werden konnte. Selbst in interaktiven Titeln mit Szenen in Kinoqualität, die in Echtzeit gerendert werden, sind verbale Interaktionen mit nicht spielenden Charakteren immer im Wesentlichen statisch.

Jetzt hat die Technologie jedoch aufgeholt. Studios haben das Potenzial, die Stimme eines Schauspielers zu klonen und Text-to-Speech-Engines zu verwenden, damit Charaktere in Echtzeit alles sagen können.

Es gibt auch traditionellere Anwendungen in der Werbung sowie im technischen und Kundensupport. Hier ist eine Stimme wichtig, die authentisch menschlich klingt und persönlich und kontextuell ohne menschliche Eingaben reagiert.

 

WEITER LESEN


 

 

So installieren Sie OpenMediaVault auf Raspberry Pi 4

Um einen OpenMediaVault Raspberry Pi-Server einzurichten, benötigen Sie einige Dinge:

 

  • Raspberry Pi 3 oder 4 mit einer geeigneten Stromversorgung
  • Micro SD-Karte - 8 GB oder mehr mit USB-Adapter
  • Für den Netzwerkzugriff ist ein Ethernet-Kabel vorzuziehen
  • Externe USB-Festplatte, die Sie formatieren / löschen können
  • Ein Computer - (ich verwende hier einen Windows 10-PC)
  • SSH-Programm wie Putty

 

Sobald Sie alles gesammelt haben, können Sie loslegen.

 

Loslegen

 

Laden Sie Raspian Lite für Ihren Raspberry Pi herunter.

 

Laden Sie Etcher herunter.

 

Stecken Sie Ihre Micro SD-Karte in Ihren Computer und öffnen Sie Etcher.

 

Wählen Sie in Etcher die Raspbian Lite-Bilddatei aus, wählen Sie dann Ihre Micro SD-Karte aus und klicken Sie auf „Flash“.

 

Nachdem Etcher alles geschrieben und überprüft hat, ziehen Sie den Micro SD-Kartenleser heraus und schließen Sie ihn wieder an. Öffnen Sie dann Ihren Datei-Explorer und suchen Sie nach dem Laufwerk mit der Bezeichnung "boot". Öffnen Sie das Laufwerk, klicken Sie mit der rechten Maustaste in das Fenster und klicken Sie auf "Neue Textdatei erstellen". Nennen Sie die Datei "ssh" (ohne Anführungszeichen) und entfernen Sie die TXT-Datei aus dem Dateinamen. Windows fragt Sie, ob Sie die Dateierweiterung wirklich ändern möchten. Klicken Sie auf "Ja".



Ersteinrichtung

Ziehen Sie den Micro SD-Kartenleser heraus, entfernen Sie die Micro SD-Karte und schließen Sie sie an Ihren Raspberry Pi an. Stellen Sie sicher, dass Ihr Netzwerkkabel eingesteckt ist, und stecken Sie dann das Netzkabel ein, um Ihren Raspberry Pi einzuschalten.

 

Jetzt sollten Sie einige Minuten warten, bis der Raspberry Pi ein paar Minuten Zeit hat, um hochzufahren und sich zu beruhigen. Melden Sie sich währenddessen bei Ihrem Router an und suchen Sie die IP-Adresse des Raspberry Pi. Sie werden das für den Rest des Einrichtungsprozesses benötigen.

 

Öffnen Sie ein SSH-Programm wie Putty, sobald Sie die IP-Adresse erhalten und dem Raspberry Pi Zeit zum Booten gegeben haben. Geben Sie die IP-Adresse in das Feld "Hostname" ein. Lassen Sie den Port auf 22 eingestellt.

 

Klicken Sie unten im Programm auf die Schaltfläche „Öffnen“.

 

Klicken Sie in der Putty-Sicherheitswarnung auf "Ja".

 

Ein Terminalfenster wird angezeigt, in dem Sie aufgefordert werden, sich anzumelden. Der Benutzername ist "pi" und das Passwort ist "Himbeere". Geben Sie einfach den Benutzernamen und das Passwort ohne Anführungszeichen ein. Jedes Mal, wenn Sie ein Passwort eingeben, werden keine Sternchen oder ähnliches angezeigt. Geben Sie einfach Ihr Passwort ein und drücken Sie die Eingabetaste.

 

Als Nächstes möchten Sie das "Himbeer" -Kennwort in etwas Sichereres ändern. Geben Sie dazu im Terminalfenster "passwd" ein. Sie werden aufgefordert, das aktuelle Passwort einzugeben. Geben Sie "raspberry" ein (erneut ohne Anführungszeichen) und drücken Sie die Eingabetaste. Sie werden dann aufgefordert, Ihr neues Passwort einzugeben. Tun Sie das und drücken Sie die Eingabetaste. Sie werden dann aufgefordert, Ihr neues Passwort erneut einzugeben. Tun Sie das und drücken Sie die Eingabetaste.

 

Jetzt ist es an der Zeit, sicherzustellen, dass Raspian vollständig aktualisiert ist. Geben Sie im Terminalfenster Folgendes ein:

 

sudo apt-get update

 

Lassen Sie das System vervollständigen. Wenn Sie einen blinkenden Cursor haben, geben Sie Folgendes ein:

 

sudo apt-get upgrade

 

Dies kann einige Minuten dauern. Lassen Sie es also laufen, bis Sie wieder zu einem blinkenden Cursor zurückkehren. Geben Sie dann Folgendes ein:

 

sudo reboot

 

Dadurch wird Ihr Raspberry Pi neu gestartet und Ihre Putty-Verbindung geschlossen. Warten Sie ein paar Minuten und öffnen Sie den Kitt und melden Sie sich wie zuvor mit Ihrem neuen Passwort an.

 

Pi User to SSH hinzufügen 

Als Nächstes fügen Sie den Benutzer "pi" mit diesem Befehl zur SSH-Gruppe hinzu:

 

sudo adduser pi ssh

 

OpenMediaVault installieren 

Sobald dies abgeschlossen ist, werden Sie eine Datei von Github herunterladen und ausführen, mit der die OpenMediaVault-Serversoftware installiert und konfiguriert wird. Das Skript lautet wie folgt:

 

wget -O - https://github.com/OpenMediaVault-Plugin-Developers/installScript/raw/master/install | sudo bash

 

Dieser Vorgang kann eine Weile dauern, abhängig von Ihrer Internetverbindung und der Version von Raspberry Pi, die Sie haben. Ich habe ungefähr 15 Minuten gebraucht, um dies abzuschließen, aber ich verstehe, dass es über 30 Minuten dauern kann.

 

Starten Sie den Raspberry Pi neu, sobald das Skript ausgeführt und abgeschlossen wurde:

 

sudo reboot

 

Zu diesem Zeitpunkt können Sie Ihre externe USB-Festplatte anschließen.

 

Der Beitrag wird nach dieser Werbeunterbrechung fortgesetzt:

 

Post Continues After This Ad Break:

Ad Break

DONATIONS HELP ME KEEP THE CHANNEL RUNNING

Post Continues Here:



Erster Login

Geben Sie dem Raspberry Pi erneut ein paar Minuten Zeit, um neu zu starten und sich einzuleben, und öffnen Sie dann einen Webbrowser wie Chrome. Geben Sie in der Adressleiste die IP-Adresse des Raspberry Pi ein und drücken Sie die Eingabetaste.

 

Daraufhin sollte ein OpenMediaVault-Anmeldebildschirm angezeigt werden. Der Benutzername lautet "admin" und das Standardkennwort lautet "openmediavault" (wieder ohne Anführungszeichen).

 

Es gibt einige Dinge, die Sie tun möchten, sobald Sie sich zum ersten Mal angemeldet haben.

 

Ändern Sie zunächst die Einstellung "Automatische Abmeldung", indem Sie in der linken Spalte unter "System" auf "Allgemeine Einstellungen" klicken. Ändern Sie dann die Einstellung von 5 Minuten auf etwa 30 oder 60 Minuten und klicken Sie dann auf „Speichern“. Dann sehen Sie oben auf der Seite einen gelben Balken, in dem Sie aufgefordert werden, "Übernehmen" oder "Zurücksetzen". Klicken Sie auf "Übernehmen". Das Speichern des Updates kann eine oder zwei Minuten dauern.

 

Als Nächstes möchten Sie das Webadministratorkennwort unter "System> Allgemeine Einstellungen> Webadministratorkennwort" ändern. Geben Sie in jedes Feld Ihr neues Passwort ein und klicken Sie auf "Speichern" und dann auf "Übernehmen" in der gelben Leiste, die oben auf der Seite angezeigt wird.

 

Speicher hinzufügen

Nachdem Sie sich um die Anmeldung gekümmert haben, ist es Zeit, Ihren Speicher hinzuzufügen.

 

Suchen Sie in der linken Spalte nach "Speicher". "Festplatten" sollten die erste Option sein. Klicken Sie auf "Festplatten". Wählen Sie Ihre USB-Festplatte aus der Liste rechts aus, klicken Sie auf die Schaltfläche "Löschen" und bestätigen Sie, dass Sie die Festplatte löschen möchten. Wenn der Vorgang abgeschlossen ist, klicken Sie auf die Schaltfläche „Fertig“.

 

Klicken Sie anschließend in der linken Spalte auf "Dateisysteme". Klicken Sie im Hauptbereich der Seite auf die Schaltfläche "Erstellen".

 

Wählen Sie in der Dropdown-Liste "Gerät" Ihre USB-Festplatte aus. Geben Sie dem Gerät ein Etikett. Ich habe meine "Dateien" genannt. Klicken Sie dann auf "OK". Auf der Seite werden Sie gefragt, ob Sie das Gerät formatieren möchten. Klicken Sie auf "Ja". Der Formatierungsvorgang dauert je nach Festplattengröße und USB 2.0 oder 3.0 ein oder zwei Minuten. Wenn der Vorgang abgeschlossen ist, klicken Sie auf "Schließen".

 

Wählen Sie die neu formatierte USB-Festplatte aus und klicken Sie auf die Schaltfläche „Mount“. Klicken Sie dann in der gelben Leiste oben auf der Seite auf "Übernehmen".

 

Das Speichern / Anwenden kann eine oder zwei Minuten dauern. Seien Sie also geduldig.

 

Klicken Sie in der linken Spalte unter "Zugriffsrechtsverwaltung" auf "Freigegebene Ordner".

 

Klicken Sie auf "Hinzufügen", geben Sie dem freigegebenen Ordner einen Namen und wählen Sie das freigegebene Dateisystem aus, das Sie gerade im vorherigen Schritt erstellt haben. Der Pfad wird automatisch mit dem Namen gefüllt, den Sie gerade dem freigegebenen Ordner gegeben haben.

 

Stellen Sie die "Berechtigungen" auf "Jeder: Lesen / Schreiben" und klicken Sie auf "Speichern". Klicken Sie dann in der gelben Leiste oben auf der Seite auf "Übernehmen".

 

Wählen Sie als Nächstes unter "Dienste" den für Ihren Netzwerktyp geeigneten Freigabetyp aus. Da ich ein Windows-Netzwerk habe, wähle ich "SMB / CFIS". Wenn Sie dies ausgewählt haben, stellen Sie sicher, dass unter "Allgemeine Einstellungen" die Option "Aktivieren" grün ist. Wenn dies nicht der Fall ist, klicken Sie darauf, und klicken Sie dann auf "Speichern" und dann auf "Übernehmen" in der gelben Leiste oben auf der Seite.

 

Klicken Sie in der blauen Leiste oben auf der Seite auf die Registerkarte "Freigaben" und dann auf "Hinzufügen".

 

Stellen Sie sicher, dass die Freigabe aktiviert ist, klicken Sie auf den Dropdown-Pfeil und wählen Sie den zuvor erstellten freigegebenen Ordner aus. Wenn "Öffentlich" angezeigt wird, ändern Sie die Einstellung von "Nein" in "Nur Gäste" und klicken Sie auf "Speichern". Klicken Sie dann in der gelben Leiste oben auf der Seite auf "Übernehmen".

 

Das Speichern / Anwenden kann eine oder zwei Minuten dauern. Seien Sie also geduldig.

 

Zu diesem Zeitpunkt haben Sie alles getan, was Sie tun müssen, um einen freigegebenen Ordner mit vollständig offenem Zugriff einzurichten. Um dies zu testen, kehren wir zu unserem Windows-Computer zurück und öffnen den Dateimanager. Geben Sie in die Adressleiste des Dateimanagers Folgendes ein:

 

\\ 192.168.1.xx (Geben Sie hier unbedingt die IP-Adresse Ihres Raspberry Pi ein.)

 

Drücken Sie dann die Eingabetaste.

 

Sie sollten dann den von Ihnen erstellten freigegebenen Ordner sehen. Öffnen Sie diesen Ordner und ziehen Sie Dateien von Ihren Dokumenten oder Ihrem Desktop oder von einem beliebigen Ort in den Ordner, um sicherzustellen, dass alles wie erwartet funktioniert.

 

Das ist es! Sie haben Ihr eigenes Raspberry Pi OpenMediaVault Network Attached Storage-Gerät eingerichtet.

 

/ ========================================= /

Teile bei Amazon kaufen

 

Teile bei Amazon kaufen

Raspberry Pi 4 Max: https://amzn.to/3n4KyBH

 

Festplattengehäuse: https://amzn.to/359jVVU

 

Festplatte: https://amzn.to/38pb8RU

 

/ ========================================= /

Musik

Lied:

/ ========================================= /

 

Hier ist mein Amazon Influencer Shop Link:

Amazon: https://aidoss.de/amazonshop

 

/ ========================================= /

  

 

 

 

 

#RaspberryPi #openmediavault

Joomla SEF URLs by Artio
Extrem sicherer
Cloud-Speicher

under_body

Data Storage

Open-E JovianDSS bietet unbegrenzte Optionen zur Gestaltung von Storage-Umgebungen mit den Client-Protokollen iSCSI, FC und NFS, SMB (CIFS). Mit seinen einzigartigen Features ermöglicht das Produkt höchste Daten-Zuverlässigkeit und -Integrität für effizientes Storage, Datenschutz und Wiederherstellung.

  • Hochverfügbare Cluster

  • Tiered RAM und SSD Caching

  • In-line Kompression und Deduplizierung

  • Thick, Thin and Over-Provisioning

Mehr erfahren
under_body
Vielfältige Einsatzfelder
 

under_body