Oh, dann habe ich mich bestimmt verlesen. Lass doch mal schauen.Ich habe nur HDD`s mit SSD`s verglichen...
---> / Behauptung eine SSD ist im Gegensatz zum RAM nicht lahm. Siehe Read/Write und Zugriffszeiten - ist sie doch (wie gesagt, Faktor 70 an Mehrleistung finde ich jetzt nicht so unerheblich ).Eine normale Festplatte mit Magnetscheibe ist im Vergleich zum Ram sehr langsam, das ist aber bei einer SSD nicht der Fall.
Wie gesagt, weit entfernt von der RAM Performance.Somit sind sie auch gut für Auslagerungsdateien des Systems,...
Bitte was quatscht du da? HDDs (die mit Magnetscheiben, falls du es nicht wissen solltest) haben da ein Read/Writedurchschnitt von 3,5/3,5ms. Eine SSD (das sind die Flashbausteine, keine Magnetscheiben, lolwut? :3) hat 0,2/0,4ms.Ich habe gesagt, SSD`s haben hohe Zugriffszeiten, das stimmt auch, wenn man sie mit normalen Festplatten die eine Magnetscheibe haben vergleicht.
Wenn du die Daten verwendest befinden sie sich aber im RAM und du hast die entsprechende Performance. Und bei heutzutage ernsthaft erschwinglichen 8 GB RAM musst du dich schon sehr anstrengend um eine Auslagerungsdatei zu benötigen...aber ich lass dich als Experten lieber weiter reden...., denn die Daten die sich im Ram befinden kommen ja von der Festplatte, das heißt sie sind an die Geschwindigkeit der Festplatten gebunden und ihr Potenzial ist somit abhängig.
PS: Das Signalkabel des Monitors ist ein DVI-D Single Link und der PC hat (glaub ich) ein DVI-I Dual Link
Hat dein PC kein HDMI, das ist doch viel einfacher? Und von der Quallität her ist das HDMI-Signal sowieso besser.
Sowiet ich weiß, hat der neue X von AMD auch 6 aml 512KB L2 (und 6MB L3) Cache und der gehört ja auch zur Phenom-Reihe.Die neuen Phenoms haben zwar L3-Cache im Gegensatz zu Athlons, aber alle 4 Kerne
müssen sich den L3-Cache teilen.Beim Athlon ist es hingegen so das der Prozessor keine
L3-Cache hat,der L2 aber bei allem 4 Kernen größer ist als beim Phenom.
In wie weit das ein Vorteil ist weiß ich aber nicht, ist viellecht für Multi-Threading gut.
Wenn es um den "besten Anschluss" ginge könnte er solchen Consumermist wie HDMI auch in die Tonne treten und müsste gleich Displayport verwenden. (;Und von der Quallität her ist das HDMI-Signal sowieso besser.
Ich habe nur der Verbreitung von Unwissen entgegengewirkt und das verbessert. Auf polemische Art und Weise. :3@Sajuk + sgt. Fontanelli: könntet irh nicht mal aufhören, euch wegen dem SSD, RAM und HDD Problem das ihr habt hier in Grund und Boden zu fisten?
Technikbezogen --> passend in den Thread.Ich glaub das passt hier echt nicht rein, regelt das dann halt per PN.
Die Pro/Contra-Debatte SSD/HDD ist keinesfalls Offtopic. Weißt du was Offtopic ist? Btw hat Sajuk nicht mehr geantwortet um das hier nicht fortzuführen...was du dafür unsinnigerweise getan hast.Ich habe echt keine Lust, dass die Mods den Thread hier auch noch sperren, weil nur noch rumgespamt wird und Offtopic Diskussionen gefürt werden.
Afaik ist Hilfsmodding in den meisten Foren unerwünscht und ich bin mir sicher das die Mods sich schon gemeldet hätten, wenn das Missfallen im entsprechendem Ausmaß wäre. Ich schätze eher das jetzt eine Aussage folgt...So, genug Moderator gespielt
Ich denke er hat bestimmt noch sein anderes OS was er sicher behalten kann. Ich kenne sein System nicht, aber da er keine SSD kauft kann er sicherlich auch noch seine alte Platte weiternutzen und spart nochmal ein bischen Geld!
Nochmal ein bischen Aufklärung HDMI/DVI!
Naja nich wirklich, HDMI basiert auf DVI, d.h. DVI ist kompatibel zu HDMI
D.h. HDMI ist bwärtskompatibel und kann per Adapter verlustfrei in DVI umgewandelt werden, da nur die Drähte mechnisch nue verteilt werden, es gibt also keinen Transformator oder ähnliches in dem Adapter! Dann muss der Bildschirm aber wenn ich mich recht endsinne HDCP beherschen den Koipierschutz von HDMI da es sonst kein Bild gibt!
HDMI hat nur einen größeren Datendurchsatz bis 10 GB/s und es wird noch Ton übertragen, aber um den Ton des HDMI-Signales mit dem Monitor wiedergeben zu können, müssten nach der HDMI-Norm lizenzabhängige Decoder-Chips im Display integriert sein! Und das ist immoment (leider) im aller seltesten Fall, die regel!
Der DVI-I kann sowohl analoge als auch digitale Signale übertragen, per Adapter kann man einen DVI-I-Stecker auch an einen Sub-D-Eingang anschließen. Die DVI-D-Variante kann nur digitale Signale an den Monitor leiten.
Qualitätsmäßig besteht da also kein Unterschied!