Beiträge von 180Gradphase

    Da muss man erstmal eine Schreiben ;)


    Früher in den alten Studios war alles Analog. Der Mixer war Soundkarte & Interface, und die Plugins waren Geräte.
    Die selbe Kette, muss man nur hinbekommen auch auf den PC´s nachzubauen.
    Es gibt unterschiedliche Lösungen.
    1.tens, Routing über Windows durch Software. Heisst, das directsound die Daten roh zu deinem Tonstudioprogramm weiterleitet. (dafür kann ich die Parameter nicht
    2tens. Treiber routing, Virtual cable etc ist da die Lösung (jeder der dann sagt, es kostet cpu leistung, es kostet jede soundkarte die nicht dafür ausgebaut ist eine Interne DSP wandlung zu haben cpu leistung. (also alle Non Studio karten....) und es kostet genauso viel.
    3tens. Line IN Kabel legacy. hat man 2 Soundkarten, werden die Daten durch Kabelmanagement zusammengetragen. 4Kanal. Heisst, der Spielsound liefe über die eine Soundkarte, mikro über die andere, und du nimmst line In, und Mic gleichzeitig auf. Erfordert Tonstudio-Software die das umsetzt und ASIO.


    Nachdem eure Tonstudiosoftware beide Signale verarbeitet, müsst ihr nur noch schauen ob die Latenzen angeglichen sind. (monitor latenz ist eine andere sache, und hat nichts mit der Aufnahmelatenz zu tun ;) ) Dann Effekte etc nach Wahl. Video könnt ihr teilweise auch aufnehmen, ich glaube Reaper unterstützt das, aber nur mit sperrlichem Support, da rate ich von ab.
    Sagaras Scriptmaker und den Kram mit dem Video verleimen, wenn alles Glatt geht, sollte das Synchron sein, man kann ja sich die Latenz zwischen Bild und Ton merken im Notfall, und dann nachrutschen im Tonstudio-Programm vor dem Rendern. (speichern der Audiospur ist ebenfalls rendern) ;)

    Aber wer hat denn zu hause solch ein umfangreiches Zeug stehen. Der typische Gamer will aufnehmen mit dem was er da hat und da reicht WASAPI Aufnahme eines Aufnahmeprogramms komplett aus. Für sowas muss ich ja kein Studio jetzt öffnen oder wie im Studio agieren. Ich will doch nur ein paar games capturen. Da reicht die WASAPI Audioaufnahme der Software doch locker aus. 5Std 30 Aufnahme und immer noch frameakkurat synchron. Was will ich denn noch mehr?

    Um wieviel FPS Verlust reden wir da? 0,5?

    Das kann man auch nach der Aufnahme machen.

    Jop aber bedeutet CPU & Latenz. Und das schon weit deutlicher als das bissl WASAPI 30ms gedöhns mit vllt 0 bis 1% CPU Nutzung


    Der FPS verlust ist abhängig von verschiedenen Faktoren. Wie viel Bit, Samplerate und wie viel Audioevents mit bestimmter Latenz ausgegeben werden. In der Regel haben Directsound und co immer eine Konstante Latenz von über 30ms. WASAPI streicht einige dinge, weil sie nicht nur an Spieler denken, sondern auch an Newcomer für Tontechnik & Co. Deshalb wird dort alles was für Spiele wichtig wäre gestrichen. Zb dynamische Zeitanpassung an die CPU Zyklen und Programmierzyklen, damit Bild & Ton ziehmlich Synchron läuft etc. Daher kommen die 30ms.



    Warum nicht "BEI" der Aufnahme bereits machen ? so im Sinne, du nimmst auf und bist fertig.
    Live Mixing. Das ist doch viel besser. Einmal sauber eingestellt geht das ziehmlich automatisiert. Spart Zeit, und Aufwand.




    Virtual Cable nimmt nicht so viel Latenz wie man denkt. und es gibt auch einfach die möglichkeit deine Tonstudiosoftware als Soundkarte zu erkennen., Und schwupps, kostet es dich genau so viel Last, wie eine normale Soundkarte auch kosten würde.


    Wie gesagt, es geht Einfach, Teuer, Leicht, Umständlch etc. Das ist immer Situationsabhängig.
    Wie man es möchte. ;)

    Finde erstmal ein Spielhook-Aufnahmeprogramm das überhaupt via ASIO aufnehmen kann.
    Eig. ist WASAPI vollkommen ausreichend. Bei einer Spielaufnahme willst du ja nicht 30 spuren aufnehmen oder?

    Du hast auch damals schon nicht verstanden, das man intern eine Schaltlogik aufbauen kann ne ? ;) du kannst zb per Line out to Line in aufnehmen oder virtuell verschalten, und mit 2 Soundkarten arbeiten. Oder deinen Spielsound einfach umrouten zu deinem Aufnahmeprogramm. Willkommen im Studio, aber die Anleitung war dir zu Kompliziert. WASAPI ist ebenfalls OK, aber dennoch nicht Hardwarebeschleunigt über eine dedizierte extra CPU. Wenn du also mehr Leistung verbraten willst,Latenz und FPS verschenken ?
    Zumal du wenn du es über Dein Tonstudioprogramm machst, hast du ein Korrektes Autoduck, EQ und welche effekte du auch immer willst Synchron und brauchst nichts mehr machen, als mit SSM Ton und Video zusammenzuführen. Und das ganze ist ziehmlich Latenzfrei.
    WASAPI ist die notlösung, aber ASIO ist genau dafür entwickelt worden. Niedrige Latenzen, Stabilität und Hardwarebeschleunigung. Leider nur, wenn man es anständig beherrscht. Also ja, ich empfehle dem Threadersteller auch WASAPI zu nehmen. Etwas mehr Arbeit hinterher, aber sicherer, wenn man sich 0 Auskennt.



    Es gibt einige Programm zb wie VirtualCable um den Spielsound auf dein Tonstudioprogramm zu senden. Im Prinzip wie wenn du ein MP3 Player, CD Player etc an deine Soundkarte anschliesst. Im Studio machen wir das noch anders, aber für den Anfang reicht auch so ein Workaround. Ihr letsplayer macht euch 100000 mal mehr Arbeit als nötig, und macht euch zu viele Gedanken um eine milliarde teils unnötige Dinge, wo es ne andere Milliarde wichtigere Dinge gibt die noch wichtiger sind.
    Ich sehe viele die hier einfach ohne Fachwissen aufnehmen wollen oder es tun, Damit kommt man aber nicht weit.


    Und Ja ich kann die Spiele über ASIO laufen lassen, sogar ganz Windows. Wenn man eine schnelle und leistungstarke Soundkarte mit Sauberen Treibern hat. Zb von Audiowerk. Auzentech (nicht creative auzentech) , RME Soundkarten. Gibts in verschiedenen Preislagen. Aber die können das. kosten genauso viel als wenn man eine Creative Premiumkarte kauft, die aber scheiße läuft.

    Bit in Audiobereich bedeutet du kannst eine höhere Dynamispanne aufbauen von 0 - (deine Bitzahl bzw 16 bit = 96DB, 24 Bit 144DB usw.) kost mehr Verarbeitunsleistung, geht auf CPU und Datenmenge.
    Wenn du also zb aufnimmst, und hast einen Raum dafür zb ein Schallgedämpften Raum und Equipment das kaum Rauscht also mit einem Rauschabstand mit -120DB und mehr, kannst du das nutzen. Amsonsten ist es unnötig.
    Es ist halt 96Db völlig ok wenn du voll austeuerst zb beim laut werden schreien nicht so leicht zu Clippen. Aber das braucht man eigentlich nicht. Die meisten im Studio nutzen 24Bit noch wegen Plugins, aber es kümmert nicht mehr hinterher.
    Die meisten sachen haben in der Realität nur 35db zwischen den lauten und leisten Tönen, also braucht man nur richtig auszusteuern.
    Also wenn du zb mit 8bit arbeiten würdest, hättest du nur 42db dynamik und Rauschabstand, wo das prima eine Stimme und musik unterbringen könntest, aber du müsstest das Rauschen verhindert, weil du eben wenn du die Anlage aufdrehst, hörst du Grundrauschen. Deshalb nehmen wir 16bit, damit das Rauschen bei -96DB (deswegen werden auch Minuswerte angezeigt bei der Aussteuerungsanzeige und es geht bis 0db) und wenn die die Anlage auf 96db verstärkst hörst du erst dann Grundrauschen. Wenn die musik bei -10DB liegt, hörst du also gar kein rauschen, weil du Musik dir schon um die ohren fetzt bei der Lautstärke :D:)


    Keine Sorge, 16 Bit reicht aus.


    http://www.yamahaproaudio.com/…/mg_xu/support/interface/


    Ja dein Interface / Mini-Mischpult kann ASIO, passe aber dazu auf, das dein ASIO korrekt eingestellt ist. Also stelle die Latenz in den Asio treibern bitte ein. Yamaha und Google haben dazu anleitungen. :)
    Wenn du Cubase und höherwertige Programme verwendest siehst du auch Blockgrößen und So weiter, ist ein bisschen Mathematik die aber ganz einfach ist.


    Natürlich, musst du auch schauen, Das sie Spuren trotzdem Intern Synchron sind. Wenn es auf Youtube noch Asynchron wird, dann kann das auch am entsprechenden Format liegen. Da kann ich leider keine Ferndiagnose machen.
    Bitte checke die Spuren also ob die Synchron mit dem Bild sind vorher !


    btw, das interface ist eine Soundkarte. Die hat eine Soundkarte integriert. Deswegen brauchst du eigentlich keine Mehr, aber USB hat vor und nachteile. (mehr nachteile, wie ich aus eigener Erfahrung und Messungen herausfand).


    Also bitte, vergewissere dich alles genau einzustellen, und versuch nicht unbedingt die Latenzen viel zu niedrig (unter 5ms) drücken, das ist nicht für die Asynchronität auf Youtube verantwortlich, sondern wie lange dein Signal vom Mikro bei der Aufnahme zum PC verzögert in der Bearbeitung. Wenn du es zb Monitoren willst also Live hören was du sprichst, ist die Latenz Gut je niedriger sie ist. Der Versatz ist dann geringer. Bitte also, schön alles in Ruhe überprüfen, nicht alles durcheinander werfen an Begriffen, wenn du etwas nicht verstanden hast, helfe ich dir gerne alles in sein Regal zu bringen, wo es hingehört. :)


    Gutes Gelingen :)

    Du kassierst noch Nachhilfestunden unter fester Folter, bis du es auch mal verstehst. Kein gefährliches Halbwissen posten ;)


    Also um deinen Durst nach Wissen zu stellen, Gapless ist nur unterbrechungsfreie Wiedergabe, die dadurch ermöglicht wird, das die stücke vorgeladen werden und das wars. Qualitativ ist das instabiler , weil Buffer von CPU last etc begleitet werden. Ebenfalls hängt es davon ab ob ein Programmierer sauber den kram an die WASAPI - Container schickt. Hör auf zu sagen ASIO ist schlechter als WASAPI, denn sie sind beide Einwandfrei. Messungen und Studiotauglichkeit sind für Beide vorhanden. Da gibts keine Qualitätsunterschiede, nur Vor und Nachteile.
    ASIO will eine schnelle und geeignete Soundkarte. (Audigy 2 von 2005 zb liefert eine latenz von 2ms in Kombination mit einem schnellen System und Fehlerfreien Software.) und WASAPI liefert eine latenz von 30! ms. ASIO ist Kompletter Bypass an Treiber und System. Null bremsen, und Klangliche beeinflussungen mehr durch Treiber, selbst der Mixer in Windows funktioniert wenn ASIO full angesprochen wird nicht mehr. WASAPI kann das nicht, weil es das System schon dafür braucht um den buffer / puffer aufzubauen.
    Gapless Playback ist doof, den die CPU hat unterschiedliche Latenz und Lastwechsel, das kann zu Fehlern führen, die dann auch noch kaschiert werden durch Intelligenz im Hintergrund. (Das verfälscht den Klang!)
    ASIO blendet auch keine Samples aus, Das widerspricht alleine der Mechanik die du entweder dich weigerst zu lernen, oder verneinst weil du es einfach nicht verstehen willst.
    ASIO ist ein Rohsignal Abgeber. Es wird alles verarbeitet, wenn du aber die Latenz verkackst weil du die Datenpakete nicht ordentlich einstellst, JA SO wie Früher bei DOS Zeiten. WO alles noch Hardware Nah war, also ASIO 2.0 Quasi weil man noch die Latenzen einstellen musste.


    An den Threadersteller kann ich als Tontechniker nur raten, bitte erkundige dich gründlich in der Mechanik und Aufbau der verschiedenen Systeme und Möglichkeiten.
    Als Audiostandards sind 16 Bit, 44,1Khz für CD und Digitalmedien nach Redbook IEC 60908 empfohlen. Reicht für alles aus. Mehr kann ich nur empfehlen, wenn du weisst, was du tust.
    Ich empfehle dir ASIO zu nehmen durch zb wenn es echt nicht anders geht ASIO4ALL (CPU last extrem hoch, weil die CPU die Rohdaten verarbeiten muss aka keine Hardware-beschleunigung) oder durch ernsthafte Hardware die ASIO unterstützt. Asus soundkarten ab 20 € können das mit ca 4-7ms bei Einzelspuren bis zu max 30 bei Guten Rechnern und gleichzeitiger Effektverwaltung.
    Was ich, und das möchte ich für den Dennis50300 anmerken, Bei WASAPI nicht behaupten kann. 30 Spuren mit Effektberechnung und die Latenz steigt auf 100ms verzögerung und bremst das System total aus.


    Soundkarten die ASIO unterstützen gibt es eine Liste bei google.de wirst du fündig. Ich rate dir von Creative ab, es sei denn du hast Programmier Erfahrung, und intensive Systemintegrationserfahrung und Wissen über Treiber-Mechanik, auf den ersten Blick sehen die Karten achso toll aus, aber die Treiber haben neben ihren Bluescreen,Bugs und sonstigen Problemen noch heftige Klangprobleme.



    Wenn du Fragen haben solltest Dennis, du weisst wo du mein Postfach findest. ;)
    und kannst bestimmt auch mal Google.de nach den Stichworten : Latenzen, Hardwarenah,Soundprobleme durch Treiber , wie arbeitet der Windows Mixer intern, Resampled der Windows Mixer oder ist er nur ein Steuerprotokoll (was er ist :P da läuft kein Audio durch. jeder der DAS denkt, glaubt auch man müsse eine Taschenlampe vor den Monitor halten, damit die Lichtwellen da sind. Hinweis : Das ist ein Cameo zwischen Analogtechnik und Digitaltechnik, inkl Software vs Hardware).

    Das wäre mir neu. Zumindest bei mir wurden dann immer die beiden Kanäle gemischt und dementsprechend leiser.

    Diesen Schritt gibt es bei mir nicht mehr. Ich extrahiere Audiospuren inzwischen selbst automatisiert, lasse via FFmpeg mit silencedetect die stumme Spur finden und entfernen, wodurch das manuelle Entfernen in Audacity entfällt. Beschleunigt gerade bei mir auch den restlichen Ablauf, da ich meine Audiospuren generell noch als Backup in FLAC speichere, was nun direkt durchgeführt werden kann, ohne Audacity dafür zu verwenden. Zum Bearbeiten der Audiospuren brauche ich es natürlich weiterhin noch (Lautstärke anpassen und Auto-Duck, für letzteres finde ich leider keine Konsolenvariante).

    Wenn ich die USB-Probleme mit denen vergleiche, welche ich bisher mit Interferenzen auf üblichen Soundkarten hatte, ist die Anschaffung eines Mischpults oder gar einer extra Soundkarte (Welche genau die gleichen Probleme haben kann. Hallo Xonar Phoebus.) definitiv nicht gerechtfertigt.Die eigentliche Problematik ist so banal, dass man dafür keine extra Hardware benötigt.

    Jupp ist schon wahr, allerdings nimmt man ja zb im Studio deshalb gerne andere Anschlüsse oder eigene Interfacemethoden um Störrungen oder Interferenzen zu umgehen. gänzlich lässt sich halt leider nie alles vermeiden :)
    Mfg

    Du umgehst also lieber den hochwertigen A/D Wandler eines Interfaces um den unterdurchschnittlichen einer (Onboard-)Soundkarte zu verwenden mit der Gefahr auf zusätzliche Interferenzen durch andere Einflüsse, nur weil du unbedingt ein Mono-Signal statt eines einseitigen Stereo-Signals möchtest?

    Oder gar eine zusätzliche Investition tätigen, nur weil du eine Monospur möchtest?

    Kenne deinen Workflow nicht, bei mir war es früher aber auch ein zusätzlicher Zwischenschritt, bis ich es mit FFmpeg automatisiert habe und die stumme Spur nun rausfiltern lasse.


    Hochwertigen A/D Wandler ? und das machst du woran aus ? Hast du mal ein Elektriker gefragt / Tontechniker nach entsprechenden Messmittel um das zu überprüfen , das der Wandler hochwertiger sei als der in der Soundkarte ?
    du glaubst wohl alles, sobald es der Hersteller draufschreibt. Er kann ja selbst Messungen durchführen, und einige Testtöne sich im Netz besorgen, und du wirst feststellen das nicht alles Gold ist was Glänzt.
    Die meisten Wandler werden unausreichend geerdet, oder auch sonst nicht richtig angesteuert. Nur weil ein guter Chip drin ist, heisst das noch lange nicht, das das Gerät amsonsten einwandfrei oder Störrfrei ist. Vorallem bei 96/24 Interfaces, weisen all zu oft Frequenzfaltungen , Kammfilter und sonstige Probleme auf. Bevor man also nicht gemessen hat, ist so eine Aussage wie du sie triffst sehr Risiko behaftet. Und kannst ja im Netz bei echten Ingenieuren und nicht Pseudo testseiten mal sehen, ob Steinberg seine versprechen einhält.
    Wenn es so ist, und das USB auch sonst stabil ist, würde ich ihn nicht umgehen. das wäre ja auch Blödsinn.



    @Julien,
    Das ist immer eine Frage von Guter Erdung, sauberen Gehäusen etc. USB ist nicht "Besser" wenn dann kann es Gleichauf sein.
    solange ungefähr 5 V und 1A anliegen kann man mit einem guten Spannungswandler mit ordentlicher Regelung bombenstabile und rauscharme Versorgungsspannungen erzeugen. wenn man dann intern noch voll symmetrisch arbeitet, ist auch die Gleichtaktunterdrückung hoch und bei Class A Eingängen ist dann gar nichts mehr mit rauschen (außer dem unvermeidbaren Bauteilerauschen), da die eh ständig im Schwebebereich laufen
    Zumal, wenn man es noch sauberer haben will, kann man das Gerät mit einem 5V Akku betreiben - schönere Gleichspannung bekommt man nicht.
    wenn es eindeutig Besser wäre, gäbe es keine normalen Soundkarten mehr. ;) daher, ist es ne Frage hopp oder topp. Messungen ....


    Mfg

    https://thumbs1.static-thomann…b/373404/11369439_800.jpg


    Jupp, sollte er auch mit einem Monokabel von Line L oder R abnehmen, je nachdem wo er es angeschlossen hat,
    Lieber Julien, habe doch recht.
    Hab einfach mal nach Steinberg gegoogelt, aber vorhin mit dem UR12 verwechselt. Siehe bild. Da kann man 3,5mm Klinke Mono anschliessen, und dann kann man an eine Stereokupplung anschliessen.
    Also nicht zwangsweise USB nötig.


    Und die halbe lautstärke das ist bei OBS so. Aber nicht unbedingt standardverhalten, misch mal bei Audacity 2 gleiche Audiospuren.
    Kannst du auch bei Audition oder sonstwo nachprüfen. Demon.
    Siehe unten mein Pegel war genau bei -5DB. also war 1DB übersteurung beim Peak.


    Wieso hat er dann einen Kanal stumm ? blöde treiber. wie mir Scheint.


    Soll er einfach den Line ausgang nutzen, vermeidet eyh die ganzen Probleme mit USB rauschen durch schlechte Erdung etc, weniger Grundrauschen und so weiter.
    Also einen Chinch auf Stereoklinke 3,5mm und rein in die reguläre Soundkarte.
    den leider hat er ja kein Panorama regler in OBS Studio, wo er auf Mitte pan stellen könnte.


    Da brauchen einige Nachhilfe in der Tontechnik .. Aua aua.
    Ich löse das Gewirr mal passend auf. Soll nicht böse gemeint sein ;) nichts für ungut.


    Mono wird auf alle Lautsprecher gestreckt, bzw man redet dann von "Mitte" gemischt. Spiel ne Mono datei ab, sie wird auf beiden Kanälen zu hören sein. (Stereo mit einer leeren Spur zählt nicht.)
    Auch ist ein Mono Signal nicht zwangsweise Phasenanfällig, schon gar nicht wenn es exakt dasselbe signal ist, das würde nur bei einer Laufzeitverschiebung auftreten. Siehe Phaser bzw Flanger oder Delay. Da hört man dann einen Kammfilter und Auslöschungen in Aktion.
    Mono wird auch nicht zwangsweise Lauter, das ist abhängig von beiden Kanälen aus dem Stereocontainer. da 1 Spur leer ist, kann es nicht lauter oder gar leiser werden.
    Die fehler wie Kammfilter oder auslöschungen werden im übrigen nur dann hörbar, wenn man in Stereocontainer 2 unterschiedliche Mono signale draufknallt. man kann auch einfach 2 Monospuren leicht versetzt abspielen. Phasen Auslöschungen gibts nur in Stereo im übrigen.
    OBS entwickler gehen davon aus der jemand seine Signalkette auch technisch verstanden hat, und es entsprechend Mono angeschlossen haben, da allerdings Soundkarten heutzutage nur noch Stereo arbeiten in Windows (sind ja auch Stereo anschlüsse bei den meisten Soundkarten, ich lasse nun Studio Soundkarten aussen vor.) haben die oft einen filter, der das Signal aufdoppelt in 2 Kanal.
    Würden 2 identische Spuren zusammengemischt, ergebe das in der Tat + 6dB
    Weshalb sie einen "Idiotenfilter" drin haben, um das zu vermeiden.
    um dem Vorzubeugen, macht es sinn das Signal leiser zu machen.


    Linker Kanal oder rechter Kanal only, hmmm, wie wäre es mit gleich richtig anschliessen ? :D

    EDIT : Der nachfolgende Text bezog sich auf normale Mischpulte, da aber MacMecker ein USB audiointerface nutzt, ist es natürlich obsolet.




    (((((((((((((((((((((((((((((((((((Au leute , warum vergisst ihr immer und immer wieder, das 1 Mikrofon lediglich MONO ist. Latein Mono 1 Stereo 2.
    Das ist liest man zum xtausendsten mal. Ja natürlich gibt es soundkarten die das Automatisieren (also das Signal nur doppeln oder gleich in Mono arbeiten) aber es hilft auch einfach mal ein Monokabel zu besorgen. Dann lassen sich auch Kammfilter etc vermeiden.
    Und die Programmfrickelei hat ein einfaches Ende ;)


    Bei Headsets ist es intern anders verkabelt, deshalb ist das Mikrofon auf beiden Polen bzw Kanälen zu hören. Das ist aber eigentlich vom Standard abweichend, denn wie ich bereits sagte Mono = 1 , Stereo = 2.


    PS warum ein Mikrofon links oder nur rechts zu hören ist bei einem STEREO kabel, ist eine Frage wie es verschaltet wurde.
    Man unterscheidet zb in Linksautonom und Rechtsautonom. (falls es wen interressieren sollte)
    mfg))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))

    WASAPI :
    https://msdn.microsoft.com/de-…op/dd371455(v=vs.85).aspx (leider sind die Spezifkationen nur in Englisch, aber sie sagen das selbe wie SagaraS angegeben hat, und ich auch mit der Priorisierung der Audiostreams durch zuteilung der Programme.)


    ASIO
    https://sdk.steinberg.net/view…2294f2de057728f740c987505 (leider auch nur Englisch.)
    (sagt aber auch das, was ich bereits sagte, das Synchronisationsprobleme zwischen den Kanälen bzw Aufnahme und Abspielen somit möglich wurden etc. geringe Latenz etc - leider ist zum hergang der Treiber noch nichts von mir gefunden wurden, daher vielleicht hat jemand da einen besseren Link, der möglichst auch auf Deutsch ist.)


    Downmix 5.1 etc auf 2.0 (http://forum.gleitz.info/showt…5-1-gt-Stereo-2-0-Downmix)
    (zitat : Nun muss es doch ein KLARES VORGEHEN geben, wie ein 5.1->2.0-Downmix zu erfolgen hat. Das macht sowohl JEDER einfache DVD-Player (mit Scart- und Stereo-Augang), als auch PC-Abspielsoftware (VLC, etc.) "on-the-fly" bei der Wiedergabe auf Stereo.)
    Da ein Audioplayer codecs benutzt um Audio abspielen zu können,daher müssen das die Decoder bereits im Programmcode können, was der Fall ist. Siehe Decoder/Encoder Funktion und Aufbau.


    D/A A/D Wandlern :
    http://www.service-sued-backes…gital-analog-wandler.html
    (Was hier allerdings nicht erklärt wird ist wie ein Verstärker arbeitet, und das Lautsprecher logischerweise Analoges Signal nur verarbeiten können. Daher brauch man immer einen Digital zu Analogwandler, ohne dem kommt kein Ton. Früher in den 80er war das nicht so, weil es Analog zu Analog war. Dennis50300 verwechselte zudem das mit CD Player Wandlern, das auch wieder ein Analoges medium ist, was Digitale Daten enthält. Die D/A Wandler sind im Prinzip Decoder&Encoder. (vorsicht, das ist nicht der Exakte Begriff, sie arbeiten nur verwandt!!!)


    PC daten sind ja 01010010101. Das kann ein Lautsprecher nicht. Das wäre nähmlich Physikalisch Strom an , Strom aus usw.
    Also würde der Lautsprecher bloss bewegungen machen, aber es kommt mist bei herum. ein Datenstrom ist ganz einfach abzuspielen im Analogen teil, Öffnet mal Audacity und Spielt eine CDDA (Compact Disc Digitales Audio) ab. Es wird rauschen, ohne Encoder der es wieder umwandelt. ihr könnt auch ne Exe datei abspielen als Rohdatei, SagaraS hat da bestimmt ein Experimentbeispiel ;).


    Wem diese Daten und Links nicht ausreichen, dem kann ich nur Raten sich tief in die Materie der Elektrotechnik zu lesen, ggf eine Ausbildung zu machen, und viel Zeit mit dem Kram zu verbringen. Seit ich ein kleiner Pampersrocker war, musste ich mich dank Eltern mit dem Kram schon rumschlagen. Heute ist es mir nützlicher denje.


    Vielleicht hat auch noch jemand passendere Links.




    Mich würden mal Links interessieren, um das gesagte zu untermauern. Habe wie Sagaras nur die grundlegenden Infos und Audio möchte ich gerne weiter ausbauen.
    Also wenn einer seine Behauptungen untermauern kann, wäre ich sehr dankbar.
    Und allgemein ist es immer sinnvoller an der Lösung zu arbeiten, als sich in die Haare zu bekommen.


    @BlueSky, wenn du noch mehr Links haben möchtest, oder sollte ich etwas vergessen haben, sag doch bitte bescheid.
    Mfg


    Ich kann durchaus verstehen, das Laien das alles durcheinander werfen.
    Wenn man bedenkt das es da draussen Audiokabel für 100.000 € für 1 meter kabel gibt mit Fälschlichen Mathematischen Formeln die beweisen wie die Welt angeblich funktioniert, und die Leute einfach ausgenommen werden.
    Natürlich gibt es da noch Sachen wie das berüchtigte HIFI Forum und ähnliche, die schon seit Je Her, ein bestürzendes Niveau aus Tatsachenverdrehung , unvollständige Informationen etc herausgegeben werden. Wie üblich das Internet ersetzt nunmal keine Schule, keinen Wissenschaftler, Ingenieur, Techniker etc.


    Da gibt es viele Bekannte Audiolügen. hier mal ein paar beispiele zum Googlen.
    (Google.de Anfang)


    D/A Wandler verfälschen den Klang, da wird von Treppenbildung gesprochen, was sie nicht verstanden haben, ist das Wellen eben Wellen bleiben. Sie glauben die Wellen würden digitial abgespielt werden, wie sie in Audacity etc dargestellt werden. Mangelnde Schulbildung und verwechslung sorgten für diesen Aufschrei. um das zu verstehen. kann man entweder Logisch nachdenken, oder das Nyquist Shannon Theorem auswendig lernen. (Universitätsstoff) (https://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem)
    Natürlich stellt jede Wandlung und ein Gerät im Signalweg verlust dar, aber nicht solch einen Treppeneffekt.
    Hierbei wird ausgegangen, das Wellen binär gerechnet würden. sie sind aber nicht Binär, sondern nur das Datenformat. es werden 2 Schuhe vertauscht, und schwupp haben wir unsere Treppen. Ein PC kann ja keinen Kreis ausrechnen, so also auch keine Sinuskurve. Hierzu kann SagaraS bestimmt gut ergänzen. (ich erwarte jetzt schon Superkommentare von den Usern.)




    Audiokabel haben keine Lichtgeschwindigkeit von 99,9%. Das ist eine sehr bekannte Halbwahrheit. bei HF technik (hochfrequenztechnik) und raten über 1 GHZ sind die Wellen so ultrakurz das Licht sich tatsächlich langsamer ausbreitet. (Schwerer Physikstoff.)


    Vinyls haben mehr Dynamik. Nope, aber Vinyls müssen einen Trittschallfilter haben damit einem die Lautsprecher beim aufsetzen der Nadel oder verschobenen Spurrillen die teilweise bis zu 5Hz raushauen nicht platzen. einfach mal nach "Trittschallfilter, Hochpass und Tiefpass googlen.) Aber dadurch wird natürlich auch der DR (Dynamic Range, oder auch Dynamikumfangswert erhöht. kann man btw in Audacity selbst machen. (dann klingt es btw viel Wärmer ;) speziell durch einen Tiefpass bei 13500hz 6 dB 1ter Ordnung nach Butterworth.)


    (\Google.de Ende.)

    Es ist wirklich so, dieses Bashing ist pubertäres Verhalten, und hat nun die armen User hier total verunsichert.
    Schade, das es einfach so oft vorkommt.
    Von einem Thema zum nächsten, wer kann es besser, wer nicht.


    Ich finde es blos schade, wenn gefährliches Halbwissen mit Profi Gesprächen gemixt wird, die Worte verdreht und völlig vom Thema abgekommen wird.
    Was immerhin nun sehr lang hier im Thread gewesen zu sein scheint.

    Das ist kein Voodoo und sogar Messtechnisch belegt. Du kannst dir sogar einen Testton zusammenbasteln, der dir bei 96khz die Verzerrungen aufdeckt, wenn die Ausgangsfilter nicht sauber arbeiten. Aber das ist für dich auch Vodoo.


    ASIO ist zwar eine art Treiber, lässt dich allerdings die Chips Roh ansteuern. also Kein Windows, keine Klangwürger
    WASAPI wird immernoch von den Treibern beeinflust und kann unerwünschte Nebeneffekte haben, auch die Latenz ist niemals auf unter 20ms.
    Und vorallem mehr als 64 Kanäle sind Asynchron das bedeutet du kannst 64 Kanäle rein und raus gleichzeitig nutzen, also Aufnahme und Abhören gleichzeitig. das ist Asynchron. und nicht Samplerate und Bitzahl....
    Du betreibst gerade Bashing, und versuchst mich in Grund und Boden zu reden, ohne fundiertes Grundwissen.
    Vielleicht sollten die User demnächst einfach lieber auf Google.de gehen als dieses Forum hier zu besuchen.
    Die User wissen anscheinend einfach alles besser ;)


    Und das du mit einer Creative ASIO überhaupt nur 44,1 Khz konntest ? da hast du aber verdammten Mist gebaut. zumal die Treiber sowieso der letzte Müll sind.
    Kauf dir eine Studiokarte. nicht solches Spielzeug.
    Und bitte, leg dir mal nen Netteren Ton zu, gebe auf solche derartigen Töne keine Antwort mehr.


    Die D/A Wandler von CD Playern haben nichts mit den D/A Wandlern aus den neuen HIFI Geräten zu tun. Aber du kennst dich ja super aus ;)


    Dein Gerät kommt also ohne Digital zu Analogwandler aus ;) Cool. muss ich mir auch mal besorgen :D
    btw : https://www.amazon.de/Yamaha-S701-Stereo-Vollverstärker-Wandler-schwarz/dp/B00N95OHM0
    Google mal was für D/A Wandler in den Gerätenstecken. Ohne den könntest du keine Musikhören. Boxen sind Analog, weisst du ;)
    Auch deine Soundkarte ist ein D/A wandler ;) ohne kommt kein Ton.
    CD Laufwerke hatten früher schlechte. war mal ;) sind heute Delta Sigma wandler :D
    Bei Verstärkern ist das ein wenig was anderes, wenn du mit 96 Khz, 192 Khz und höher arbeitest. Dann kommt es auf die Ausgangsfilter an. Und es gibt auch nicht annähernd den Grund mehr als 44,1 Khz einzusetzen ;)

    Ja was glaubt ihr (du und @Sagaras ) was ich wohl oben gemeint habe. Auf jeden Fall den Windows HAL, wenn wir über DirectSound reden. Ist doch ganz klar. ^^ Obwohl halt. eig. mein ich eh den für Grafik.


    Autsch. da hast du dich gerade selbst zum Affen gemacht, und bewiesen das du 1000 dinge durcheinander wirfst.
    Google hilft, bilden auch.
    Sieh mal was selbst creative dazu schrieb. der HAL wurde in Directsound entfernt. Direct X bzw DirectSound hatte einen eigene HAL, der nun entfernt wurde. das hat nichts mit dem Windows HAL zu tun.
    Wikipedia und Google hilft.

    Anstelle deinen Beitrag xmal zu editieren, kannst du ja auch mal sinnvoll den Text vorher durchgehen, damit man auch auf alles antworten kann. Danke ;)


    wenn dein Gerät auf 96Khz Resampled hat, und es scheiße Klang, hattest du ein Problem mit billigen D/A wandlern. Gibts genug beiträge dazu auf Google zu finden, was ich auch schon erwähnt hatte zum Thema "resampling" und Intermodulations-verzerrrungen. Aber wer natürlich nicht liest, oder nicht aufgepasst hat worum es geht, antwortet x tausendfach.


    ein Tipp, Wissen ist nicht nur eine Stadt in Deutschland, und Niveau ist keine Creme aus dem Regal im regulären Einkaufsmarkt.
    Was du da von dir gibst ist absoluter Nonsense, es interressiert nicht welche Lautsprecher du besitzt, oder was und wie wo verwendet wird interressiert nicht. das ist nur Vor Pubertäres verhalten. nebenbei angemerkt.