Beat pruduktion

Original geschrieben von tricks
jo,aber bei "toy soldiers" voice sample ist am schluss ne snare,die em komplett gekillt hat.
der hat die bestimmt nicht weggezaubert u know.
peace

das stimmt nicht
 
Original geschrieben von tricks
wie das stimmt nicht????
hab das orginal lied hier!!!

ich habs mir bei amazon eben angehört das original.. da ist doch die ganze zeit die snare drüber die eminem "programmiert" hat..

wo soll da etwas rausgeschnittens ein???
 
also ich hörs gerade auch,homz.
du hast recht es ist nicht die snare,sondern base drum oder wie das heist.
 
ausserdem ist am schluss des liedes der gesang ohne snare drüber..
 
Du hast recht!!!
hab immer nur probiert den anfang des tracks zu samplen
 
Original geschrieben von Worldbreaker
So man kann nicht aus einem Track den text wegmachen so dass man nur ein Instrumental hat geht nicht!! Und genau so wenig geht es eine Snare komplett rauszufiltern ohne den Sound den man dann alleine haben will stark zu beeinträchtigen!! Wenn ihr das Gegenteil behauptet, dann will ich bitte ne genaue beschreibung wie das gehen soll!!

Also, das ist von Track zu Track verschieden, mit Software-lösungen bekommt man des öfteren halbwegs gute Ergebnisse, besser jedoch ist Hardware, z.B. der Vocal-Zapper von Alesis (hab ich, billig produkt, tut abah seine Wrikung) In vielen Tracks kann man jedoch nur die Hauptstimme herausfilter, Zweitstimme bleibt meistens drauf (In Hip-Hop Tracks sind meist nur noch die Doubles zu hören), das liegt daran, das diese meist im Stereofeld erweitert wurden, und die Stimme nur genau in der Mitte gefiltert wird....

(Zieh z.B. einen Track in Adobe Audition [KEIN MP3!!!] gehe auf Effects->Amplitude->Channel Settings [odah so] und probier das Preset Vocal-Cut....klappt des öfteren....)

Wahr its allerdings auch,das das Ausgangsmaterial mit angergriffen wird, deswegen gehts auch fast nie bei MP3's da Vocal-Removing eine hohe Sampling-Rate voraussetzt. . .

END
 
also schießt mich tot, aber kann man das nich durch phasenumkehrung hinbekommen?
hab das ma vor ner weile gelesen aber mich nicht wirklich damit beschäftigt, aber vielleicht kennt sich de jemand aus und kanns erklären...
aber ich bin mir sicher dass auch mit der methode den sound nich sauber rauscutten kann, der ganze song wird dadurch wahrscheinlich mehr oder weniger beeinträchtigt..

aber wie gesagt...
so theoretisch in meinem kopf funktionierts, aber vom der parktischen ausführung hab ich null ahnung :D
 
also ich hab mal in so nem produktion video von dubj gesehen, daß er den sample wie bei cool edit über 2 kanäle laufen hat laßen,und dann aus einem der kanäle das was störte rausgeschitten hat.
 
natürlich gibt es die möglichkeit ein bestimmten sound zu unterdrücken ohne einen anderen dadurch zu beeinträchtigen.
wie mein vorgänger bereits erwähnt hat hat es was mit der phasenverschiebung zu tun.
Also es funktioniert folgender Massen; Du legst dein Ausgangsmaterial auf einen Kanal. Phase unverändert
Auf den zweiten Kanal legst du exact auf die selbe position das Geräusch bzw. den Klang den du extrahieren möchtest. Drehst die Phase um 180 Grad.
Phasenauslöschung basiert auf dem Prinzip das zwei Sinuswellen übereinander gelegt ihre Amplitude erhöhen und zwar um den faktor 100 % sprich 6 dB. 180 Grad Phasengedreht hingegen ergibt eine komplette auslöschung der Sinuswelle.
So das war jetzt extrem primitv erklärt um mir die schreiberei zu sparen und euch das durchlesen.
Im Prinzip kannst du auch genau das Gegenteil mit der Phasenverschiebung erreichen. Und zwar :
Du legst dein Ausgangsmaterial auf einen Kanal, Phase unverändert.
Die exacte Kopie des Ausgangsmaterials legst du auf einen anderen Kanal, drehst die Phase. Jetzt hörst du nichts mehr. Aufgrund der Auslöschung *siehe oben.
Peace
 
mit welchem program machste das??
auch cool edit??
müsste damit klappen!oder?
 
Original geschrieben von Z-TRAXX
natürlich gibt es die möglichkeit ein bestimmten sound zu unterdrücken ohne einen anderen dadurch zu beeinträchtigen.
wie mein vorgänger bereits erwähnt hat hat es was mit der phasenverschiebung zu tun.
Also es funktioniert folgender Massen; Du legst dein Ausgangsmaterial auf einen Kanal. Phase unverändert
Auf den zweiten Kanal legst du exact auf die selbe position das Geräusch bzw. den Klang den du extrahieren möchtest. Drehst die Phase um 180 Grad.
Phasenauslöschung basiert auf dem Prinzip das zwei Sinuswellen übereinander gelegt ihre Amplitude erhöhen und zwar um den faktor 100 % sprich 6 dB. 180 Grad Phasengedreht hingegen ergibt eine komplette auslöschung der Sinuswelle.
So das war jetzt extrem primitv erklärt um mir die schreiberei zu sparen und euch das durchlesen.
Im Prinzip kannst du auch genau das Gegenteil mit der Phasenverschiebung erreichen. Und zwar :
Du legst dein Ausgangsmaterial auf einen Kanal, Phase unverändert.
Die exacte Kopie des Ausgangsmaterials legst du auf einen anderen Kanal, drehst die Phase. Jetzt hörst du nichts mehr. Aufgrund der Auslöschung *siehe oben.
Peace
grad wollt ichs sagen :D

ne, danke...jetzt weiß ich wenigstens ganz genau was das is...dann hat ich doch recht mit meiner theorie
 
ja, wie heißt der original song vom "toy soldier" sample
 
das original heisst martika - toy soldiers ..ist von 89..

man kann bsp. bei amazon ein snipped des liedes hören..
 
Ein paar Fakten.

1. Es ist möglich durch Phasendrehung eine auslöschung verschiedener Signale in einem Track zu bewirken.

2. Wie gut oder schlecht das geht hängt extrem vom Ausgangsmaterial ab (bzw von dem Hang zur stereophonie des Tontechnikers der Aufnahme :D) Versucht doch mal bei ner monoaufnahme nur ein Instrument oder die Stimme durch Phasenauslöschung rauszufiltern :p

3. Theoretisch ist ein Instrument nach der Bearbeitung umso lauter je weiter es von der Stereomitte entfernt ist. Hört man eine Trompete nur auf dem linken Lautsprecher wird sie nach der Bearbeitung (die übrigens mit cool edit sehr gut geht) auch sehr laut zu hören sein.

4. Eine Stimme komplett aus einem Track zu filtern ist unter umständen nur möglich wenn man das Acapella des Stückes besitzt das alle Vocaleffekte beinhaltet. Der Grund dafür liegt darin das selbst wenn die Stimme des Sängers genau in der mitte liegt, in den meisten fällen wohl auch noch Effekte wie Chorus oder Raum bzw Hall auf der Stimme liegen die im Stereofeld verteilt wurden. Somit ist dann zwar die Hauptstimme nicht mehr zu hören aber eben die Effektanteile.

5. Glücklich ist der der zB einen langgezogenen Trompetenton aus einem Jazzstück löschen will, Adobe Audition besitzt und sich mit der Marquee Funktion in der Spektralansicht beschäftigt hat :D

6. (müsste eigentlich weiter oben stehen da eher was grundsätzliches) verändert man die Lautstäke eines der beiden Kanäle (inphase und outphase) werden unter umständen ausgelöschte Signale lauter, dafür löscht man aber andere Signale. Man könnte sagen das man dadurch "das Mittensignal verschiebt"

7. Eben wurde angesprochen das man kein MP3 Format verwenden sollte. Dem geb ich teilweise recht denn durch die Komprimierung wird einiges an Signal zerstört und wenn man das dann Phasengedreht hört hört man mal was für eine scheiss Qualität einem da eigentlich tagtäglich um die Ohren wedelt. Kompressionsartefakte ohne Ende. Somit ist die Phasendrehfunktion durchaus auch dazu geeignet um grob die Qualität einer MP3 Wandlung zu beurteilen. Bei höheren Bitraten so 256 ist von den Artefakten aber meistens nix mehr zu hören.

So das muss an Fakten reichen.
Aber:
Ich kann mir vorstellen das wenn ein Produzent wirklich mal ein Problem mit einem Sample und einer störenden Snare hat das er durchaus die Stelle aus den originalbändern bekommen kann (kommt halt auf den rechteinhaber und auf die Kohle an :)

Noch eine kleine wahre Geschichte zum Schluss: Das erste mal als ich das "Phänomen" Phasenauslöschung hörte war ein Zufall. Ich kannte mich noch garnet mit den Hintergründen und Audiotechnik überhaupt aus. Ich hörte eine CD über einen tragbaren CD Player der an meiner Billigcompaktstereoanlage hing. Cinchbuchsen. Plötzlich hörte ich nur noch das Klatschen und die Stimme von Roger (Zapp / More Bounce To The Ounce) und hab gedacht ich spinne oder hätte hallos :D
Der Grund dafür war das der Eingang der Anlage defekt war. Genauer gesagt die Signal Pins der Cinch waren ok aber die Masseverbindung war nicht mehr vorhanden. Der Effekt ist eine Phasenauslöschung. Seit ich den Hintergrund verstanden hatte "frisierte" ich meinen MD Walkman Kopfhörer und baute an das Kabel einen schalter mit dem man die Masseverbindung trennen konnte. Ich hab dadurch einiges über Stereoverteilung im Mix gelernt. Aber wenn ich ehrlich bin mag ich MonoHipHop noch am liebsten.

Puh da bin ich ja mal wieder richtig aus mir rausgegangen. Wer bis jetzt noch dabei war hat Ausdauer und verdient Respekt


Peace
 
Ich hab noch vergessen zu erwähnen

8. Die Karaokefunktion ist nix anderes als soeine Phasenauslöschung. Jedoch ist sie darauf optimiert den Frequenzbereich der menschlichen Stimme auszulöschen. Der Bassbereich wird zB extra angehoben da ja Bassdrum und Bass auch meistens in der Mitte liegen und ausgelöscht würden.

Peace
 
yo,peter
du bist ja voll das brain:)
echt fresh von dir das du dir zeit genommen hast für so ne ausfühliche antwort!!
 
Zurück
Oben Unten