Audacity Projektfrequenz-Unterschiede?

  • Hallo!
    Ich hab mich jetzt mal intensiv mit Audacity beschäftigt und da ist mir eine Leiste am unteren linken Rand aufgefallen und zwar die Leiste "Projektfrequenz".
    Standardmäßig ist diese ja auf 44100Hz eingestellt, aber die Leiste geht hinauf bis zu 384000Hz.


    Nun wollte ich fragen, was denn diese Einstellung überhaupt bringt? Gibt es da einen qualitativen Unterschied zwischen 44100 und 384000Hz bei der Kommentaraufnahme von Let's Plays? Ich bin auch draufgekommen, dass umso höher die Projektfrequenz eingestellt ist, umso länger dauert die Bearbeitung.

  • Nein, einen qualitativen Unterschied bringt das nicht, nur eben massiv längere Bearbeitungszeit und erheblich größere Dateien. Für Orchesteraufnahmen mit sehr vielen Mikrofonen gehen professionelle Studios manchmal bis auf 192 kHz hoch, aber für unsere Größenverhältnisse und ganz besonders für Sprache reichen 44100 Hz locker aus.

  • Nein, einen qualitativen Unterschied bringt das nicht,

    Nicht so ganz, es kommt drauf an was man damit macht.
    Wenn man in mehr Bit aufnimmt, können Filter im nachhinein besser arbeiten, zudem wird dann auch das Risiko reduziert das man übersteuert.
    Nur muss man dann in nachhinein diese Werte auch ordentlich Downsampeln und dafür ist Audacity nicht geeignet, da selbst Avisynth hier schon bessere Ergebnisse erzeugt.

  • würde 48khz machen dann brauch yt nicht auf 48khz upsamplen. Sampleratekonvertierung ist nicht lossless.
    Und der samplerate konverter von audacity ist zudem wahrlich für die tonne, daher auch in windows unbedingt drauf achten das deine audiogeräte die selbe samplerate haben wie du aufnimmst.
    Die bittiefe in windows aufs höchste und bei aufnahme in 32bit float und erst die finale codierung via einem shaped dreiecksdither auf 16bit bringen, wäre auch eine Verbesserung.
    Schlussendlich gibt es noch zu sagen das die filter von adobe audition erheblich besser sind.

  • Und der samplerate konverter von audacity ist zudem wahrlich für die tonne

    Sollst ja auch nicht konvertieren, sondern ändern. Da passiert doch rein gar nix mit den Audiodaten.
    Tonspur auswählen -> Spuren -> Samplefrequenz der Spur ändern
    Und dann neue Samplefrequenz angeben.


    Sofern niedrige in höhere umgewandelt werden, passiert mit der Samplefrequenz rein gar nix. Da kommen höstens neue Frequenzpunkte zu.


    Das ist das gleiche als wenn du die FPS ändern tust bei Video mit ChangeFPS.


    Und wenn es von 44100 Hz auf 48000 Hz geändert wurde, dann muss die Projektfrequenz ebenfalls auf 48000 Hz umgestellt werden.


    Warum nix passiert: ist weil einige Samples kopiert werden nur bei dieser Art von Änderung.


    Höhere in niedrige Frequenzen zu samplen ist bei dieser Methode auch recht ok noch. Jedoch werden dann Samples entfernt und und wie bei niedrigen FPS man die Bilder dann sieht, hört man bei Audio dann halt entsprechend einen dumpfen Klang. Einfach weil die Samples weiter auseinander liegen dann. Bei höheren liegen sie näher zusammen und sind daher klarer im Klang.


    Diese Methode ist im Aspekt der Samples und Sampletiefe und auch von der Zeitlänge absolut Lossless. Es werden halt nur Samples hinzugefügt (kopiert) oder entfernt. Mehr ist das nicht. Würde AVISynth genauso machen. ^^


    Ab 30000 Hz bis 300000 Hz bewegt man sich dann im LW Bereich. Langwellen Bereich halt.


    Das sind Signale die für Radios genutzt werden. Diese Signale können sich nicht beugen und würden daher wenn ein Empfänger hinter einem Berg liegen würde den Empfänger nicht erreichen. Einfach weil Langwellen sich nicht beugen können.


    Bei UKW sieht das dann anders aus. Das geht dann aber erst ab 30.000.000 Hz (30 MHz) los. ^^


    Bei 192 Hz also ist man im LW Bereich, hat aber Studioqualität, weil einfach mehr Samples pro Sekunde zur Verfügung stehen und somit das Klangergebnis pro Sekunde auch deutlich verbessern damit.


    Das ist wie gesagt wenn man jetzt ein 25 FPS Video (22050 Hz) mit einem 60 FPS Video (44100 Hz) vergleichen tut. (Ist jetzt nur mal eine Gegenüberstellung wie man das sehen sollte. ^^)


    Wenn man in mehr Bit aufnimmt, können Filter im nachhinein besser arbeiten, zudem wird dann auch das Risiko reduziert das man übersteuert.
    Nur muss man dann in nachhinein diese Werte auch ordentlich Downsampeln und dafür ist Audacity nicht geeignet, da selbst Avisynth hier schon bessere Ergebnisse erzeugt.

    Die Sampletiefe (Bit) gibt an wie welche Klang/Ton Höhe erreicht werden kann.


    Bei 8 Bit können 256 Tonhöhen erzeugt werden.
    Bei 16 Bit schon 65536
    Bei 24 Bit 16777216
    Und bei 32 Bit 4294967296


    Ist es 32 Bit Float können sogar Gleitkommazahlen als Tonhöhe erzeugt werden.


    Das ist dann die Qualität einer Audiospur und ist ähnlich gleichzusetzen mit der Video Farbtiefe.



    Hier macht Audacity eigentlich auch nix falsch. 16 Bit Audio in 32 Bit und dann wieder in 16 Bit zu konvertieren erzeugt 0 Verlust, da die Samplehöhen sich ja nicht geändert haben.
    Übrigens macht das AVISynth genauso wie Audacity. ^^


    Daher ist es Schwachsennig in höheren Sampletiefen wie 24Bit oder 32Bit aufzunehmen, bzw dort Audio zu bearbeiten. A) YT. macht eh nicht mehr als 16 Bit, B) Qualitativ bringt das einen eh nix, da höhere Tonhöhen bei einer Sampletiefenänderung in eine niedrige auf ein kleineres Spektrum gequetscht werden.


    Klar ist aber: Je niedriger die Bitzahl, desto weniger Tonmuster hat man zur Verfügung und desto radiomäßiger wird der Ton. Je höher, desto klarer wird ein Sample, da mehr Tonmuster zur Verfügung stehen.


    16 Bit mit 65536 Tonmuster von Stumm (0) nach Laut (65536) reicht im Normalfall.



    Das ist meist auch ein Punkt weshalb Audio manchmal auch Übersteuern kann, indem sich nicht mehr innerhalb dieser Grenzen bewegt wird, sondern darüber hinaus.




    Beide Sachen macht Audacity eigentlich ganz gewissenhaft. Kann mich nicht entsinnen das AVISynth anders verfährt.


    Das Speichern unter Audacity richtet sich nach der Projektfrequenz.


    Die Bittiefe richtet sich nach dem verwendeten Codec.


    z.B. wenn ich ein 48000 Hz 24Bit Audio Track habe, dann stelle ich die Projektfrequenz auf 48000 Hz und exportiere den Ton mit:
    Andere unkomprimierte Dateien -> Optionen... -> Header (WAVEX (Microsoft)) ; Codec Signed 24 Bit PCM -> OK -> Speichern


    Und schon hat man an der Audiospur nix geändert, da alle Parameter nun passen.

  • Sofern niedrige in höhere umgewandelt werden, passiert mit der Samplefrequenz rein gar nix. Da kommen höstens neue Frequenzpunkte zu.

    Also VirtualDub hat per Default einen sehr schlechten Up/Downsampler, erst wenn man dort die erweiterte Audio-Bearbeitung über einen Filtergraphen aktiviert erhält man einen HQ-Sampler der auch ohne hörbare Unterschiede die Sampling-Frequenzen ändert.


    Konvertierung von 11 <> 22 <> 44khz ist problemlos möglich, da wird einfach ein "Mittelwert" gebildet aus 2 nebeneinander liegenden Samples, eine 44 <> 48khz Konvertierung macht jedoch Probleme da man nicht einfach die Frequenz verdoppeln oder halbieren kann, demnach fängt man an die komplette Tonspur anzupassen, da kommen also keine neuen "Frequenzpunkte" hinzu sondern es werden ALLE Samples "überarbeitet" um am Ende wieder klanglich das selbe rauszubekommen ohne "Digitales rauschen" und "knistern" weil die Samples zeitlich nicht mehr passen...


    Samplerate gibt ja nur an wie oft pro Sekunde der AnalogDigital-Konverter der Soundkarte da einen Wert ermittelt, Am besten ist dabei natürlich das ganze in Floatingpoint zu samplen (machen die "Profis" im Synchronstudio ja auch), aber für den Heimgebrauch wird man keinen unterschied durch verlorene Kommastellen hören wenn man es nur in 16bit macht. Eine schlechte 44 <> 48khz Wandlung jedoch hört selbst der Amateur deutlich heraus wenn da nur "eingefügt" wird...


    Ist wie mit 25 <> 30fps Wandlung, man sieht ein deutliches Ruckeln wenn da einfach nur Bilder weggelassen/verdoppelt werden und nicht via Blending eine "weiche" Umwandlung stattfindet...

  • Nope, wir haben uns die letzten Tage mit einem Tontechniker zusammengesetzt.


    Wenn das Mic mit maximal 20 kHz arbeitet, ist der maximale Wert den man für die Aufnahme braucht 44 kHz.
    Das hängt damit zusammen das die Samplerate doppelt so hoch wie der Bereich den man Aufnehmen möchte sein muss, damit ein ordentlicher Klang aufgenommen werden kann.
    Bei einer Änderung von 44,1 kHz auf 48 kHz, passiert einfach nichts, da einfach nicht mehr Vorhanden sein kann als es schon ist.
    Genauso wenn man mit 48 kHz aufnimmt, das Mic nur 20 kHz (nicht vergessen Semplerate x 2) kann und man dann auf 44,1 kHz runtergeht, passiert auch nichts, da hier nur Punkte weggenommen werden die keine Information haben.


    Anders sieht es dann wieder bei der Bearbeitung aus, Aufnahme mit 44,1 kHz und 24 Bit, Projekt Einstellung für die Bearbeitung, 192 kHz und 24 Bit, das hängt damit zusammen damit die Filter bei der Bearbeitung dann genug Platz nach oben haben und es dadurch zu weniger Fehler kommt.


    Oder einfach, kommen wir mal auf deinen Fps vergleich zurück
    30 Fps (48 kHz) und 25 Fps (44,1 kHz)
    Sollte man jetzt mit 30 Fps aufnehmen, sind 5 Fps einfach nur Dummy Frames, die die auf den weg zu 25 Fps einfach entfernt werden.

  • Du vergisst leider dabei das es sich hier um ein Temporales Phänomen handelt, Frequenzen existieren nicht "einzeln" sondern beziehen sich immer auf eine Zeitspanne! Eine Frequenz ist die Änderung einer Spannung über die Zeit, steht die Zeit still hast du eine Spannung aber keine Frequenz mehr.



    Wenn das Mic mit maximal 20 kHz arbeitet, ist der maximale Wert den man für die Aufnahme braucht 44 kHz.
    Das hängt damit zusammen das die Samplerate doppelt so hoch wie der Bereich den man Aufnehmen möchte sein muss, damit ein ordentlicher Klang aufgenommen werden kann.

    Der AD-Wandler benötigt eben mindestens die Doppelte Frequenz die er erfassen soll, ist normal und habe ich bisher auch nicht wirklich hinterfragt wieso...



    Bei einer Änderung von 44,1 kHz auf 48 kHz, passiert einfach nichts, da einfach nicht mehr Vorhanden sein kann als es schon ist.

    Falsch, Beispiel-Sample:


    Vorher (44khz):
    - 2-4-8-2


    Nachher (48khz) bei schlechter Wandlung:
    - 2-4-4-8-2


    Nachher (48khz) bei "guter" Wandlung:
    - 2-4-6-8-2


    Da es sich um Frequenzen handelt wird die erste Umwandlung wo nur "verdoppelt" wurde schlechter (blecherner) klingen als die zweite Wandlung die hier (von mir sehr simpel) dargestellt einen neuen Zwischenwert errechnet hat. In Wirklichkeit würden sich auch die 2-4 und 8-2 Werte ändern da sie "neu positioniert" werden auf der Zeitachse da man jetzt statt 44000 Werten pro Sekunde plötzlich 48000 Werte hat und irgendwo die neuen 4000 Werte ja herkommen müssen. (Also wohl eher "2,3 - 4,5 - 6,7 - 8,0 - 2,2"



    da hier nur Punkte weggenommen werden die keine Information haben.

    Falsch, siehe oben, die "Punkte" haben alle Informationen da es um Zeitliche Informationen geht und somit kein Punkt "unwichtig" ist...


    Wenn man zum Beispiel einen Kompressor nutzt, sind die Signale über 16 kHz (Sampelrate x 2) nur noch rauschen, deswegen sollte man dann bei der Speicherung auf 32 kHz runter gehen, damit die Sampels die nur noch rauschen sind gelöscht werden.

    Ein Kompressor reduziert nur die Lautstärke, sprich die maximale Spannung die ein Sample wiedergibt und ändert NICHTS an der Frequenz, du meinst einen Equalizer der Frequenzen anhebt oder senkt, was wiederum digital zB. über IFFT möglich wird (Analog geht das über Filter) wo dein Audio in einzelne Frequenzen aufgespalten wird, diese angehoben oder abgesenkt werden und das danach wieder zusammengeklebt wird.


    http://stackoverflow.com/quest…to-implement-an-equalizer


    Es gibt keine "rauschenden" Samples, rauschen ist vielmehr eine "ungenauigkeit" der Samples, rauschen ist mehr ein Chaos als etwas, das man gezielt filtern kann, hochfrequentes Rauschen lässt sich natürlich durch senken der Samplingrate "ausblenden", dabei gehen aber auch normale hohe Frequenzen verloren (zB. Zisch-Laute)


    Zum Thema rauschen kannst du ja die DSL-Opfer fragen die ein hohes Rauschen auf der Leitung haben und deswegen nicht die Volle Bandbreite bekommen weil es sich eben nicht filtern lässt, denn auch DSL funktioniert über Frequenzen... (Stichwort: SNR)



    Sollte man jetzt mit 30 Fps aufnehmen, sind 5 Fps einfach nur Dummy Frames, die die auf den weg zu 25 Fps einfach entfernt werden.

    Dadurch entsteht eben ein weiteres Problem was ich oben ansprach: https://en.wikipedia.org/wiki/Micro_stuttering


    Ist übrigens auch wieder ein Temporales Problem, guckt man sich die Frames einzeln an merkt man nicht das welche Fehlen, aber Zeitlich gesehen stottert und "ruckelt" es dann doch wieder da Informationen nicht redundant sind die entfernt wurden.

  • Der AD-Wandler benötigt eben mindestens die Doppelte Frequenz die er erfassen soll, ist normal und habe ich bisher auch nicht wirklich hinterfragt wieso...

    Einmal wegen den oberen und einmal wegen dem unteren Frequenzbereich. Daher macht man das so.
    Und dann kommt man halt von einem 22,05 kHz Mikrofon auf eine 44,1 kHz Aufnahme.

    Eine Frequenz ist die Änderung einer Spannung über die Zeit, steht die Zeit still hast du eine Spannung aber keine Frequenz mehr.

    Frequenz ist nicht die Änderung einer Spannung über die Zeit.


    Eine Frequenz ist ein Kehrwert einer Periodendauer (Schwingungsdauer). Und die Periodendauer ist der kleinste örtliche oder zeitliche Intervall nachdem sich der Vorgang wiederholt. Im Falle von normalen Audio ist damit der Abstand zwischen zwei naheliegenden Samplepunkten gemeint.


    Bei 44100Hz hat man somit eine Periodendauer von ~0.022675737 ms.

    Code
    1 / 44100 Hz = 1 / 44100 * 1/s =
    1 * 1
    44100 * s
    T = 1 * 1 / 44100
    T = 1 / 44100 / 1000 | s in ms
    T = 1 / 44,1 ms
    T = 0,02267573696145124716553287981859..... ms



    Und wenn man Audacity mal öffnet und ganz nah an eine 44100Hz Tonspur ranzoomt, dann müsste man auf diese Zeitlänge kommen für ein Sample.


    Die Frequenz hat in der Elektrotechnik Anwendung, ja. Aber hier geht es um den Physikalischen Hintergrund allgemein. (Das Zeug was man eigentlich in der Schule hatte ^^)


    Denn du selbst hörst auch mit einer bestimmten Frequenz und die besteht gewiss nicht aus Spannung, sondern hat einen physiologischen Hintergrund.


    Ein Kompressor reduziert nur die Lautstärke, sprich die maximale Spannung die ein Sample wiedergibt und ändert NICHTS an der Frequenz

    Ein Kompressor komprimiert erst einmal wie der Name schon deuten lässt. Das ist Fakt Nummer eins.


    Eigentlich heißt das Ding ganz genau Dynamikkompressor, denn es wird der Dynamikumfang eines Signals eingeschränkt.


    Je besser der Frequenzbereich nun ist, desto Zielgenauer kann er arbeiten. Oder besser gesagt: Desto feiner kann er arbeiten. Und das macht man in der Regel auch das man mit der Frequenz höher geht bevor man unangenehme Kompressor Geräusche bekommt. Weil ein Kompressor sollte man wenn es geht vermeiden.



    Nachher (48khz) bei schlechter Wandlung:
    - 2-4-4-8-2

    So eine Audiofrequenz würde ich gern mal sehen. ^^


    Das wäre ja sehr eckig ^^ Mit was arbeitest du um sowas zu bekommen? Weil VirtualDub kann das nicht und AVISynth auch nicht. Daher frage ich mal so ^^


    Das Grundprinzip ist immer das ein kleinerer Frequenzbereich immer in einen höheren geht. Es werden lediglich an den Stellen Samples hinzugefügt wo schon was da ist.


    Sprich: Zwischen zwei Samples liegt eine Gerade und auch nur da kann wird ein neuer Samplepunkt angelegt. Das ist für gewöhnlich der rudimentärste Weg.


    Daher passiert einem 44100Hz Audio auch rein gar nix, wenn du es in 128000Hz und dann in 50000Hz und dann wieder auf 44100Hz zurück samplen tust. Einfach weil das was schon da ist mit 44100Hz nicht mehr weg genommen werden kann. Du vergrößerst doch nur die Box. xD


    Das ist wie mit den FPS bei nem Video. Du nimmst in 30 FPS auf und blähst es auf in 41, 50 oder höher. Und was hast du dann? Richtig, nicht mehr als die 30 FPS die Sichtbar ist. Wenn du das wieder auf 30 runter machst, bekommst du exakt die Frames wieder die du vorher auch hast.
    Ergo kein Verlust.


    Anders sieht es aus wenn du in die andere Richtung wanderst. 44100 Hz in 22050 Hz oder solche Scherze. Dann wird Audio immer Dumpfer. Hier löschst du dann einfach Informationen.


    Das ist wie bei der FPS auch. 60 FPS auf 41 FPS und wieder auf 60 und man hat eigentlich nur 41 FPS optimal. Anders verhält sich das bei Audio auch nicht.


    Damit Audio metallisch klingt ist dafür die Audiotiefe da. 16Bit auf 8Bit und man hört es langsam aber sicher Metallischer, einfach weil die Tonhöhen gar nicht mehr existieren die bei 16Bit noch vorhanden waren.


    Daher ist die Audiotiefe genau das gleiche Prinzip wie mit dem Farbraum bei einem Video. YV12 gegenüber YV24 oder gar RGB sieht mistig aus. Und genau das gleiche ist es wenn du 8Bit Audio vs 16 Bit Audio antreten lässt.


    Und wie gesagt... so ein komisches eckiges Verhältnis wie du es da aufgeschrieben hast, habe ich noch nie gesehen ^^



    Sollte man jetzt mit 30 Fps aufnehmen, sind 5 Fps einfach nur Dummy Frames, die die auf den weg zu 25 Fps einfach entfernt werden.

    Das ist ein Punkt, den kannst du einfach nicht mehr vergleichen so. Da macht es sich nun Bemerkbar was FPS ist und was Sampleraten sind.


    Bei einem Video mit einer so niedrigen FPS wie 60 und auch dessen das Aufnahmeprogramme durch Hooking bzw. auslesen des Bildspeichers und dessen Speicherung auf der Festplatte enorm viel Zeit zwischen liegt.


    Theorie:
    Würde man bei einem exakten 60 FPS Spiel mit 60 FPS aufnehmen, würde es im Idealfall zu keine Dummy Frames kommen. Einfach weil jeder Frame nun anders wäre.


    Praxis:
    Da wie angesprochen durch Hooking und sonstige Hindergrundprozesse das etwas ausgebremmst wird läuft ein 60 FPS Spiel ja nicht mit 60 FPS, sondern variiert. Weil ein Spiel und ohnehin alles was ein PC oder eine Konsole wiedergeben eine VFR ist. Und die wird in den meisten Fällen konstant aufgenommen. Und daraus resultieren dann die Dummy Frames. Das sind dann halt Kopien die an irgendeiner Position x liegen.
    Und die kann man nicht einfach so entfernen, da es ein unregelmäßiges Aufteilungsverhältnis ist.



    Das hat man aber bei Audio in der Regel gar nicht. Daher kommen Mikro Ruckler wie @TbMzockt das angesprochen hat halt nur bei Computeranwendungen vor. Meist hervorgerufen durch Grafikkartenprobleme.

  • Sprich: Zwischen zwei Samples liegt eine Gerade und auch nur da kann wird ein neuer Samplepunkt angelegt. Das ist für gewöhnlich der rudimentärste Weg.

    Du erzeugst nur ohne ALLE Samples neu zu berechnen (interpolieren) etwas das mit einem VFR-Video vergleichbar ist, darum gehts mir hier nur, du MUSST es KOMPLETT neu berechnen und kannst nicht einfach Samples "Kopieren" wie oben geschrieben wurde.



    Und wie gesagt... so ein komisches eckiges Verhältnis wie du es da aufgeschrieben hast, habe ich noch nie gesehen

    War ein sehr simples BEISPIEL... darauf einzugehen war nicht nötig.



    Daher passiert einem 44100Hz Audio auch rein gar nix, wenn du es in 128000Hz und dann in 50000Hz und dann wieder auf 44100Hz zurück samplen tust. Einfach weil das was schon da ist mit 44100Hz nicht mehr weg genommen werden kann. Du vergrößerst doch nur die Box.

    Doch klar... durchs Upsampling erzeugst du neue Zwischenwerte und die alten werden durch Interpolation verändert, als würdest du ein Video hochskalieren und danach wieder runter und behaupten es kommt dann trotzdem 1:1 das selbe raus wie vorher.



    Frequenz ist nicht die Änderung einer Spannung über die Zeit.

    In der Elektrotechnik schon und eine Soundkarte arbeitet (im Gegensatz zum Ohr) nun mal so...


    Eine Frequenz ist ein Kehrwert einer Periodendauer (Schwingungsdauer). Und die Periodendauer ist der kleinste örtliche oder zeitliche Intervall nachdem sich der Vorgang wiederholt. Im Falle von normalen Audio ist damit der Abstand zwischen zwei naheliegenden Samplepunkten gemeint.

    Wir wissen das du Wikipedia zitieren kannst, das brauchst nicht in jedem 2. Beitrag machen um dich über andere zu stellen und dich besser zu fühlen... (ich habe den Beitrag aus dem Kopf geschrieben und erst beim editieren was dazu rausgesucht)



    Und wie gesagt... so ein komisches eckiges Verhältnis wie du es da aufgeschrieben hast, habe ich noch nie gesehen

    Versuch bei Twitch mal "FailFish" einzugeben...

  • Du erzeugst nur ohne ALLE Samples neu zu berechnen (interpolieren) etwas das mit einem VFR-Video vergleichbar ist, darum gehts mir hier nur, du MUSST es KOMPLETT neu berechnen und kannst nicht einfach Samples "Kopieren" wie oben geschrieben wurde.

    Audio kennt keine variablen Samples ^^ Und die neuen Samples die hinzukommen bei einer Audiosampleänderung sind immer Zwischenwerte. Klar werden diese Interpoliert. Aber dadurch geht doch nix verloren wenn du 44100 auf 48000 Hz anhebst und dann wieder auf 44100Hz senken tust. Die Samples die vorher bei 44100Hz da waren, sind es noch immer. Da tut sich doch nix. ^^ Das kannst du auch auf 99999999999 Hz anheben und wieder auf 44100 Hz absenken. Audio bleibt immernoch identisch, sofern du keine Filter darauf hauen tust. Da geht nix verloren.


    Anders herum schon.



    Doch klar... durchs Upsampling erzeugst du neue Zwischenwerte und die alten werden durch Interpolation verändert, als würdest du ein Video hochskalieren und danach wieder runter und behaupten es kommt dann trotzdem 1:1 das selbe raus wie vorher.

    Kann ich leider nicht reproduzieren. Daher wäre es interessant wie du verfährst.


    Und was hat das jetzt mit Hochskalieren zu tun? Absolut NULL.
    Vergleiche es lieber mit FPS Änderung. Das trifft es sehr genau.



    Audio ist am PC leider digital und nicht analog. Daher ist dieses Linienmuster was man so oft sieht wie in Audacity meist falsch. Im Grunde sind es Rechtecke bzw. Linien. Jeder Sample stellt eine waagerechte Linie dar. Der Sample ist die Periodendauer, denn ein Sample hat eine bestimmte Zeit. Die hab ich dir im letzten Beitrag sogar ausgerechnet für 44100Hz. Und solange geht ein Sample. Und die Samplefrequenz sagt nun wie schnell nun das alles passiert. Denn nach jeder ca. 0,0227 ms fängt ein neuer Sample an.


    Der Sample ist ein Klangmuster (daher Sample (Probe)) von einer Tonhöhe im Bereich der 16Bit, sofern man in 16Bit aufgenommen hat.


    Und nun haste das Bild eigentlich schon.


    Bei einer Frequenzänderung werden neue Samples in das Muster einberechnet (interpoliert) und ergeben das exakt gleiche Muster des Audiotracks.


    Wenn man es auf den gleichen Wert den der Track vorher hatte wieder eine Frequenzänderung vornimmt, passiert der Audiospur gar nix. Einfach weil die Ursprünglichen Samples immer noch enthalten sind.


    Das ist ne ganz einfache Sache eigentlich. Ich weiß gar nicht warum du dich da so schwer hast mit grad?


    Es gibt noch das andere Upsampling wo die Samples erhalten bleiben, sich aber ihre Periodendauer ändert. Sprich da kommen bzw. entfallen keine Samples. Dadurch das bei diesem Verfahren dann die Frequenz geändert wird, kann man Audio dehnen und zerren. Was dann halt das eigentliche Audiosignal verfälscht. Wenn man es dehnt (Downsampling), dann wird das Audiosignal halt langsamer, da längere Periodendauer und quetschen tut (Upsampling), dann wird das Audiosignal schneller, da kürzere Periodendauer.


    In der Elektrotechnik schon und eine Soundkarte arbeitet (im Gegensatz zum Ohr) nun mal so...

    Die Elektrotechnik verfährt genauso wie ich den Merksatz aus der Physik geschildert habe.


    Die Frequenz ist nicht die Änderung einer Spannung über die Zeit so wie du gesagt hast.


    Die Frequenz ist eine Geschwindigkeitseinheit mit der man in der Elektrotechnik angibt wie schnell Spannung in einer Sekunde fließt. Oder Leienhaft ausgedrückt wieviel Schwingungen pro Sekunde anfallen.


    Und der Kehrwert bildet die Periodendauer einer Spannung. Sie gibt die Dauer des Schwingungsverlaufs an.


    Von mir aus können wir uns über Elektrotechnik streiten was die Grundsätze von Spannungsfrequenzen angeht, aber ich denke das meine Professoren an der Hochschule mir nix blödes beigebracht haben ^^


    Wir wissen das du Wikipedia zitieren kannst, das brauchst nicht in jedem 2. Beitrag machen um dich über andere zu stellen und dich besser zu fühlen... (ich habe den Beitrag aus dem Kopf geschrieben und erst beim editieren was dazu rausgesucht)


    Ich brauch mich nicht besser fühlen dabei, bei etwas was ohnehin klar definiert ist. Das sind Merksätze aus der Physik. Die solltest sogar du schon mal irgendwo gehört haben. Und ab und an mal was auf Wikipedia oder anderen Quellen was zu nutzen um Sachen halt klar zu stellen, sofern man sie dann auch verstanden hat, ist kein Delikt. Ich muss schließlich die Sätze nicht neu erfinden, sie stehen ja im Netz und in jedem Physikbuch.


    Wenn du möchtest, kann ich dir auch aus mein Elektrotechnik Buch das gerne noch mal den Merksatz formulieren. Wird das gleiche bei raus kommen.


    War ein sehr simples BEISPIEL... darauf einzugehen war nicht nötig.

    Moment... du sprichst ein Beispiel an, weil du glaubst das es ungefähr so arbeitet. Ich gehe darauf ein, weil mir das unbekannt war und frage noch wie du dazu kommst bzw. wie ich sowas selbst reproduzieren kann. Und dann sagst du das es unnötig war auf dieses Beispiel einzugehen?


    Wenn du mir erklären kannst wie du zu solch ein Beispielmuster kommst, wäre ich auch vllt. auch ein Tick klüger. Aber anscheinend darf man das nicht hinterfragen. Weiß ich nicht. ^^

  • du sprichst ein Beispiel an, weil du glaubst das es ungefähr so arbeitet.

    Folgendes: Wenn du eine WAV mit 44100 Abtastwerten pro Sekunde auf 48000 Abtastwerten pro Sekunde "Upsamplest", wo denkst du fügt die Software die 3900 Abtastwerte ein die dort fehlen?


    Vereinfacht dargestellt enthält eine WAV-Datei einfach 44100 Werte pro Sekunde die 1:1 an den DAC der Soundkarte ausgegeben werden, dieser wandelt diese Werte in eine Spannung um und durch die Veränderung über die Zeit ergibt sich daraus wieder eine Frequenz (genau umgekehrt funktioniert das beim Aufnehmen).


    Du hast also (vereinfacht dargestellt) folgendes (X entspricht hier 1000 Abtastwerten):
    >> XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX


    Wo fügt man dort jetzt die fehlenden "NNNN" ein (N entspricht hier 1000 "neuen" Abtastwerten) um von 44x X auf 48x X zu kommen?


    >> XXXXXXNXXXXXXXXXXXXNXXXXXXXXXXXNXXXXXXXXXXXNXXXX


    Wenn man das "so" macht, dann HÖRT man den Unterschied, die "neuen" Abtastwerte passen Zeitlich NICHT in die bisherigen und das äußert sich indem der Ton "Digital-Knistert", er klingt schlichtweg nicht gut.


    Also nimmt man ALLE Samples, errechnet sie neu und "verlängert" sie.


    Würdest du jetzt einfach nur die Samplingrate ändern OHNE neue Abtastwerte einzufügen wird die Datei KÜRZER, sprich du hast irgendwann Mickey Mouse anstatt deine Stimme weil die Samples einfach nur schneller abgespielt werden!


    Wie du schon schreibst verkürzt sich die Zeit zwischen den Abtastwerten je höher die Abtastrate ist, damit lassen sich dann auch höhere Frequenzen erfassen, daher nimmt man gern mal 96khz oder noch höher im Professionellen Bereich um auch ja nichts zu "verpassen".

  • Wenn man das "so" macht, dann HÖRT man den Unterschied, die "neuen" Abtastwerte passen Zeitlich NICHT in die bisherigen und das äußert sich indem der Ton "Digital-Knistert", er klingt schlichtweg nicht gut.

    Also ich habe genau wie du es gerade beschrieben heute ausprobiert gehabt. Ein 44100Hz Audio genommen und knallhart auf 192000Hz hochgedreht, dann auf 48000Hz runter und auf 96000Hz und dann wieder auf 44100Hz (Original) runter. Dabei habe ich immer wieder die Frequenz geändert.


    Ergebnis: Kein Knistern. Perfekte Qualität wie vorher auch.


    Dann habe ich die geänderte WAV gespeichert die ich permanent jedesmal die Rate geändert habe, als auch das Original. Und zwars beide jeweils auf 44100Hz 16Bit PCM signed little Endian.


    Dann sogar mit dem HxD Editor geöffnet und einen Datenvergleich vorgenommen. Was meiste was daraus gekommen ist? ^^ Ich finde es dann schon komisch das die Datei exakt die gleichen Werte aufwies. Obwohl die eine eine permanente Abtastratenänderung hatte.


    Also nimmt man ALLE Samples, errechnet sie neu und "verlängert" sie.

    Du meinst mit dieser Aussage aber diesen Werdegang: 44100 Hz auf 32000 Hz. Dann würden die Samples länger werden, sprich die Periodendauer. Und dann entfallen ja Samples bei der Neuinterpolierung. Ergo Informationsverlust. Und dann wird das Ganze dumpfer, da die Wellen immer länger werden.


    Andersrum aber kann ich dir garantieren das da nix passiert mit der Audiospur. Das habe ich mir sogar von einem Tontechniker erklären lassen ^^


    Du kannst mit 44100 Hz aufzeichnen, es mit einer Trägerfrequenz von 192kHz übertragen lassen oder speichern. Und hast im Endeffekt wenn du es wieder upsamplen tust auf 44100 Hz exakt das gleiche Muster das du aufgenommen hast.


    Das kannst du gerne ausprobieren oder auch im Netz nachlesen.


    Weil es entfallen doch nur wieder die dazuinterpolierten Sachen.


    Ich glaube fast das du nicht so richtig verstehst was da genau passiert ^^


    Die Samples die schon existieren bleiben erhalten, werden aber nur kürzer. Für den Zeitlichen ausgleich kommen dazu interpolierte Zwischen Samples die sich vom Kurvenverlauf vom vor- und nachgehenden Samples ergeben.


    Da kommt kein Rauschen, kein Knacksen, gar nix. Da passiert einfach nix. Ein Knacksen würde dann entstehen, wenn ein Sample zwischendurch einen Abrupten Unterschied aufweist. z.B. wenn man am Klinkenstecker die Spannung abreißen tut.



    Ein Knacksen und hat man auch wenn bei einem Emulator Audio Video Synchronisation an ist und Audio auf Video abgestimmt wird. Weil wenn Audio den passenden Bild überholt, wird neu synchronisiert und dann entsteht ein knacksen, weil das Bild nicht hinterher kommt.



    Aber so... wie gesagt... ich kann das mit AVISynth machen, ich kann das mit Audacity machen... und da passiert einfach nix an der Qualität wenn ich die Samplerate da ändere. Solange die Samplerate >= original Samplerate ist. Ist die Samplerate < als original Samplerate werden Samples gelöscht die nicht wiederhergestellt werden können. Das wäre ein Qualitätsverlust.



    Ist doch das gleiche Prinzip bei den FPS.


    Du kannst in 60 FPS aufnehmen, kannst es in 61, 70, 80 hoch ändern und dann wieder auf 60 und hast wieder die exakten Frames des Originals. Andersrum 60 auf 30 und dann auf 25 und wieder auf 60 bringt einen 0. Weil einfach wichtige Frames schon weg sind und das Video eigentlich nur noch ein 25 FPS Video ist.

  • Vllt sollte sich mal der Tontechniker hier melden (falls er überhaupt Bock hat sich hier anzumelden). Das führt doch zu nichts. Vllt liegen sogar wieder beide irgendwo irgendwie falsch (was ich aber gerad weniger glaube, sofern Sagaras den Tontechniker richtig verstanden hatte)

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!