Forums

Hoe is dat logisch: Asus ZenBook Pro UX501 is $ 1000 goedkoper, maar heeft betere specificaties dan mbp2015

Vorige
  • 1
  • 2
  • 3
  • 4
Volgende Eerst Vorige

Ga naar pagina

GaanVolgende Laatste

lowendlinux

24 sep 2014
Duitsland
  • 29 juni 2015
SHEEPOS zei: Waarom geeft Apple alleen om geld???
Asus ZenBook Pro UX501 is $ 1000 goedkoper, maar heeft betere specificaties dan macbook pro 2015

Dat is behoorlijk sexy en een mooie vondst. S

Samuelsan2001

24 okt 2013


  • 29 juni 2015
SHEEPOS zei: is er een reden dat Apple dit jaar niet met Maxwell nvidia is gegaan?

Omdat ze met AMD zijn gegaan, kan ik me voorstellen dat de redenen te talrijk waren om hier op te noemen en dat alleen de Apple-medewerkers die bij die beslissing betrokken waren, weten wat ze zijn en hoe de voor- en nadelen uitpakten.

Ondanks de liefde van NVIDIA die hier gaande is (ik game niet, dus het kan me niet schelen) zijn de nieuwste Fury AMD-kaarten sneller in zowat alles. Hun nieuwe architectuur met ingebed RAM lijkt een beetje een beest te zijn met enorme bandbreedtemogelijkheden. Zodra deze het mobiele stadium bereiken, zouden we een aantal prachtige grafische kaarten in de rMBP's en iMac's kunnen hebben.

lowendlinux

24 sep 2014
Duitsland
  • 29 juni 2015
Samuelsan2001 zei: Omdat ze met AMD zijn gegaan, kan ik me voorstellen dat de redenen te talrijk waren om hier op te sommen en dat alleen de Apple-medewerkers die bij die beslissing betrokken waren, weten wat ze zijn en hoe de voor- en nadelen uitpakten.

Ondanks de liefde van NVIDIA die hier gaande is (ik game niet, dus het kan me niet schelen) zijn de nieuwste Fury AMD-kaarten sneller in zowat alles. Hun nieuwe architectuur met ingebed RAM lijkt een beetje een beest te zijn met enorme bandbreedtemogelijkheden. Zodra deze het mobiele stadium bereiken, zouden we een aantal prachtige grafische kaarten in de rMBP's en iMac's kunnen hebben.

Fury is nog steeds te populair om mobiel te worden. Ik durf te wedden dat we daar nog een paar jaar voor uit zijn. Ik ben het ermee eens dat '16 en '17 moordende jaren zullen worden voor AMD en het wordt hoog tijd.

Shirasaki

16 mei 2015
  • 29 juni 2015
Dark Void zei: Ik ga door en geef hier enkele van mijn ervaringen en advies:

Gebruik gewoon wat je lekker vindt. Als je van Windows houdt, is dat cool. Als u de voorkeur geeft aan de kosteneffectiviteit van een Windows-notebook in termen van wat u krijgt, is dat ook gaaf. Macs zijn standaard niet beter dan pc's, pc's zijn standaard niet beter dan Macs. Het is niet nodig om aankopen, bouwkwaliteit of andere standpunten te verdedigen over wat een computer vormt.

Dat Asus je misschien een jaar meegaat, of je kunt er 3 of zelfs 4 mee doen - het komt allemaal neer op wat je liever doet en wat je het liefst met je geld doet. Het is tenslotte jouw computer - je hoeft niet te bashen of te verdedigen wat iemand anders overweegt of waar iemand blij mee is.

Ik, voor een, in algemeen op een paar uitzonderingen na, geloof dat de levensduur van een computer vooral wordt beïnvloed door de manier waarop er voor wordt gezorgd - niet omdat het Apple, Asus, Acer of wat dan ook is. Ik ben me bewust van het idee en de realiteit van bouwkwaliteit - maar ik had 3 jaar een Asus-notebook waarvoor ik $ 650 betaalde, een Lenovo Ideapad (ook $ 650) die nu al 3 en een half jaar in mijn gezin wordt gebruikt, en een Hannspree (dat klopt - van wie heeft hier ooit gehoord? Hannspree ) netbook waarvoor ik $ 250 heb betaald en die ik een tijdje heb gebruikt en nu gebruikt een ander familielid hem, en die is ook 3 jaar geleden gekocht.

Hier is geen standaard antwoord op. Macs gaan geen X-aantal jaren mee en Windows-notebooks gaan geen Y-jaren mee - en, zoals altijd ... hardwarespecificaties zijn niet de enige reden om een ​​notebook te kopen. Er zijn veel andere factoren, doe gewoon je huiswerk en vind wat je voorkeur heeft.
Ik heb een Asus-notebook, met een al verouderde core i5 2410 m-processor, 8 GB ram, gt 540m gpu. Ik gebruik het vanaf de allereerste dag tot de dag dat ik van mijn huis naar hier vertrek voor een hogere graad.

Wanneer ik ram van 2 GB standaard aan 8 GB toevoeg, kom ik een onaanvaardbaar BSOD-probleem tegen. Asus heeft eindelijk een nieuw moederbord voor me vervangen, en dan is er helemaal geen probleem. Zeer solide en kan nog steeds fatsoenlijk werk leveren, inclusief zwaar gamen (je kent misschien wel Supreme Commander, wat een gpu-honger is). Integendeel, veel van mijn schoolvrienden hebben last van oververhitting of een harde schijffout.

Ik ben het met je punt eens. Als je het voorzichtig gebruikt, kan het lang genoeg duren voordat het sterft. Als dat niet het geval is, kan zelfs de ultradure rMB binnen een paar dagen onbruikbaar worden. NS

Dead0k

23 april 2015
Polen
  • 29 juni 2015
hopefulhandle zei: ik typ dit op een goedkope Acer Windows 8.1-laptop. Binnen een jaar na aankoop van dit de dvd/cdr-drive deed het niet meer, de cijfertoetsen boven het toetsenbord werkten niet meer; de nummers drie tot en met zes werken niet, hoewel de functietoetsen dat wel doen en ik heb een lange ethernetkabel die over mijn keukenvloer slingert omdat de draadloze netwerkadapter niet meer werkt. Allemaal binnen een jaar.
triest voor je ervaring
Ik heb nog een eMachines (een submerk van Acer) uit 2011 en ik behandel het op een zeer goede manier.
Nog steeds in leven en effectief voor de meeste dagelijkse taken.

Dus het maakt veel uit hoe jullie om je elektronica geven.

lowendlinux

24 sep 2014
Duitsland
  • 29 juni 2015
Tot ongeveer 6 weken geleden gebruikte ik een Latitude E6500 uit het tijdperk van 2009. Mijn nieuwe laptop is een Latitude E6420 uit 2011. PC gaat net zo lang mee als die van Mac

maflynn

Moderator
Medewerker
3 mei 2009
Boston
  • 29 juni 2015
Dark Void zei: hier is geen standaard antwoord op. Macs gaan geen X-aantal jaren mee en Windows-notebooks gaan geen Y-jaren mee - en, zoals altijd ... hardwarespecificaties zijn niet de enige reden om een ​​notebook te kopen. Er zijn veel andere factoren, doe gewoon je huiswerk en vind wat je voorkeur heeft.

Dat is het punt, hoewel ik het grotendeels eens ben over de bouwkwaliteit van Apple, kopen veel mensen hier die de kwaliteit ervan prijzen, meestal om de drie jaar nieuwe laptops. Voor mij zou ik liever 2.000 per 3 jaar uitgeven.

Wat de Apple-kwaliteit betreft, mijn vertrouwen in hen is geschokt, met de problemen met de dGPU, ik denk nog steeds dat Macs geweldige computers zijn en ik kan me moeilijk voorstellen dat ik iets anders zou krijgen, maar als ik meer dan 2.000 voor een computer uitgeef Ik zou graag de gemoedsrust willen hebben dat de dPGU niet binnen 3 jaar zal uitblazen of dat de antireflectiecoating niet begint af te schilferen. S

Samuelsan2001

24 okt 2013
  • 29 juni 2015
maflynn zei: Dat is het punt, hoewel ik het grotendeels eens ben over de bouwkwaliteit van Apple, kopen veel mensen hier die de kwaliteit ervan aanprijzen doorgaans elke drie jaar nieuwe laptops. Voor mij zou ik liever 2.000 per 3 jaar uitgeven.

Wat de Apple-kwaliteit betreft, mijn vertrouwen in hen is geschokt, met de problemen met de dGPU, ik denk nog steeds dat Macs geweldige computers zijn en ik kan me moeilijk voorstellen dat ik iets anders zou krijgen, maar als ik meer dan 2.000 voor een computer uitgeef Ik zou graag de gemoedsrust willen hebben dat de dPGU niet binnen 3 jaar zal uitblazen of dat de antireflectiecoating niet begint af te schilferen.

Die gemoedsrust zou fijn zijn, maar je krijgt het gewoon van niemand, alle elektronica kan falen, en alle in massa geproduceerde items zullen problemen hebben in sommige eenheden, dat is het leven ben ik bang.

Ik begrijp gewoon niet waarom mensen Apple aan veel hogere normen houden dan alle anderen...

Je kunt niet zomaar prijs zeggen als alle andere OEM's computers maken die qua kosten en specificaties erg vergelijkbaar zijn als ze schijnbaar geen bouwkwaliteit en aandacht voor detail hebben.

schemer007

5 december 2009
  • 29 juni 2015
Samuelsan2001 zei: Ondanks de liefde van NVIDIA hier (ik game niet, dus het kan me niet schelen) zijn de nieuwste Fury AMD-kaarten sneller in zowat alles. Hun nieuwe architectuur met ingebed RAM lijkt een beetje een beest te zijn met enorme bandbreedtemogelijkheden. Zodra deze het mobiele stadium bereiken, zouden we een aantal prachtige grafische kaarten in de rMBP's en iMac's kunnen hebben.
Fury heeft bijna geen overklokruimte en is nog steeds zo glibberig langzamer dan de even grote 980 TI-chip die een behoorlijk serieuze overklokruimte heeft. Fury is veel beter dan de 290x/390x, maar hij heeft nog steeds meer vermogen nodig dan Maxwell, ondanks het energiezuinigere en snellere geheugen. Het is ook watergekoeld.
Ze kunnen Nvidia benaderen op desktops waar waterkoeling werkt en het totale stroomverbruik niet zo belangrijk is, maar op notebooks is energie-efficiëntie alles. En Fury kan Maxwell niet verslaan, de M370X is nog steeds een veel oudere technologie dan Fury.
Het gaat niet om liefde voor Nvidia of AMD, maar om objectieve resultaten waarin Maxwell simpelweg de beste is die er op dit moment is.
reacties:vbedia

koyoot

5 juni 2012
  • 29 juni 2015
Quu zei: Als we teruggaan naar 2013 zul je merken dat ze in juni op WWDC 13 de Mac Pro met Dual AMD-graphics aankondigden. Dit was het begin van Apple die zich afkeerde van NVIDIA.

In oktober van dat jaar brachten ze de MacBook Pro 15' uit met 750m grafische kaart, maar dit was dezelfde chip als de 650m, beide kepler, dezelfde pin op de chip. Het enige dat Apple hoefde te doen, was de chips omwisselen. Zeer weinig verandering.

Snel vooruit naar de iMac Retina, AMD weer, nu hebben we de 2015 rMBP, ook AMD.

Ik denk dat wat we hier zien niet echt is dat Apple AMD kiest omdat het beter is, maar omdat ze een nauwere relatie met AMD aangaan als het op graphics aankomt. Die nauwe relatie heeft geresulteerd in de D300, D500 en D700 voor Apples Mac Pro, die tot op de dag van vandaag volledig exclusief voor Apple zijn (hoewel ze gebaseerd zijn op de HD 7970) en ze waren ook de eersten die de M370X kregen.

NVIDIA lijkt veel minder flexibel te zijn, ze zullen niet worden gedicteerd. Ze geven bijvoorbeeld geen Apple GTX 980's of 780 Ti's (toen) omgedoopt tot Quadro D780's. Dit is wat AMD deed voor Apple.

Dus nogmaals, ik denk niet dat het iets te maken heeft met prestaties, het gaat om een ​​relatie die de twee bedrijven beheren en het duwt NVIDIA uit de systemen van Apple en ik denk dat het schadelijk is omdat NVIDIA momenteel de snelste onderdelen heeft in elke thermische envelop.
Heb je daadwerkelijk AMD en Nvidia GPU gebruikt voor zoiets als Final Cut Pro?

Vanuit mijn persoonlijke ervaring met taken in de echte wereld, zijn AMD GPU's bij het maken van inhoud sneller dan die van Nvidia. Veel sneller. R9 280X in Mac Pro 5.1 (3,46 GHz, 24 GB RAM) was sneller dan GTX970. 40% sneller.

Ik weet dat mensen me benchmarks zullen laten zien van benchmarks die laten zien hoe Nvidia GPU's beter zijn dan AMD in gezichtsdetectie. OKE. Maar Sony Vegas Pro is een benchmark die de echte wereldtaken simuleert. Nogmaals, het simuleert. En zelfs die benchmark laat zien dat AMD GPU's bij transcodering bijvoorbeeld sneller zijn dan die van Nvidia. Het enige dat Nvidia in de ogen van mensen beter maakt, is de aantrekkingskracht van het gamingmerk. Maar zelfs dat toont niet de hele waarheid. In 4K is de R9 390X bijvoorbeeld slechts 20% langzamer dan de GTX980 Ti, die overal wordt geprezen om zijn prestaties. En zoals we al hebben gezien bij gaming, worden AMD GPU's elk jaar beter, terwijl die van Nvidia slechter worden. Vergelijk benchmarks van r9 290X vs 780 Ti uit 2013 en uit 2015. Ze zijn echt verschillend. Nu is de R9 290X sneller.

Ook DirectX, Metal en Vulkan zullen de boel opschudden. De goedkeuring van API's met een lage overhead was wat AMD nodig had.

dusk007 zei: Fury heeft bijna geen overklokruimte en is nog steeds zo glibberig langzamer dan de even grote 980 TI-chip die een behoorlijk serieuze overklokruimte heeft. Fury is veel beter dan de 290x/390x, maar hij heeft nog steeds meer vermogen nodig dan Maxwell, ondanks het energiezuinigere en snellere geheugen. Het is ook watergekoeld.
Ze kunnen Nvidia benaderen op desktops waar waterkoeling werkt en het totale stroomverbruik niet zo belangrijk is, maar op notebooks is energie-efficiëntie alles. En Fury kan Maxwell niet verslaan, de M370X is nog steeds een veel oudere technologie dan Fury.
Het gaat niet om liefde voor Nvidia of AMD, maar om objectieve resultaten waarin Maxwell simpelweg de beste is die er op dit moment is.
Het blijkt dat je misschien niet gelijk hebt. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Bekijk het zelf. Vóór OC had de GPU een algemene score van 12K en een grafische score van 15,5K.
100 MHz, en de GPU begint te VLIEGEN! De score is hoger dan alles wat nu op de markt is.

Bewerking. Over de energie-efficiëntie...
Als je een referentie Nvidia GPU hebt, dan zal deze inderdaad minder stroom verbruiken dan AMD GPU. Reference GTX 970 met BIOS-kloklimiet is echter 3 keer langzamer dan R9 280X. Als u een niet-referentie GTX 970 heeft, is er geen kloklimiet in het BIOS en is deze slechts 40% langzamer. Het probleem is: het zal 270W stroom trekken in OPENCL-werk.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Hier heb je een bewijs. Laatst bewerkt: 29 juni 2015

koyoot

5 juni 2012
  • 29 juni 2015
Quu zei: Ik dacht hetzelfde, maar als je echt naar Maxwell OpenCL-benchmarks kijkt, verpletteren alle NVIDIA-kaarten AMD.

Werkelijk. Kijk naar de 970 of 980 of Titan of Titan X of 980 Ti. Veruit boven alle AMD-kaarten in OpenCL-benchmarks. Dezelfde situatie op de mobiele versies, 950m en 960m.

De oudere NVIDIA kepler-kaarten waren verschrikkelijk in OpenCL, absoluut waardeloos, 70%-90% langzamer dan AMD. Maar de Maxwell-kaarten zijn 10-50% sneller dan AMD in dezelfde marktsegmenten.

Zelfs ik was verrast om dit te ontdekken toen ik onlangs benchmarks onderzocht, bekijk dit eens: https://i.imgur.com/wiK5ZSG.png'bbCodeBlock-expandLink js-expandLink'>
Ze zijn niet sneller in ECHTE WERELDTAKEN! Gebruik Maxwell GPU voor Final Cut Pro en je gooit het weg en gaat terug naar de AMD-oplossing. Ik heb GTX970 en R9 280X getest in Final Cut Pro en AMD GPU was 40% sneller!

Sony Vegas Pro-benchmark toont slechts een glimp van het verschil tussen AMD en Nvidia GPU in transcodering, maar het is een behoorlijk grote schaal.

WHO

2 april 2007
  • 29 juni 2015
koyoot zei: Heb je daadwerkelijk AMD en Nvidia GPU gebruikt voor zoiets als Final Cut Pro?

Ik heb niet. Ik heb alleen gekeken naar benchmarks van algemene OpenCL-prestaties. Als je links hebt naar benchmarks die verschillen in videosuites laten zien, zou ik ze graag willen bekijken om mezelf te onderwijzen.

koyoot zei: Ze zijn niet sneller in WERKELIJKE WERELDTAKEN! Gebruik Maxwell GPU voor Final Cut Pro en je gooit het weg en gaat terug naar de AMD-oplossing. Ik heb GTX970 en R9 280X getest in Final Cut Pro en AMD GPU was 40% sneller!

Sony Vegas Pro-benchmark toont slechts een glimp van het verschil tussen AMD en Nvidia GPU in transcodering, maar het is een behoorlijk grote schaal.

Nogmaals, als je benchmarks hebt, wil ik ze graag bekijken.

koyoot

5 juni 2012
  • 29 juni 2015
Ik kan je alleen geven wat ik zelf heb getest. Geen van de recensies die ik heb gezien, heeft de benchmarks in de echte wereld getest, afgezien van de real-world werkbelastingsimulatie van Sony Vegas Pro. En dat zijn de benchmarks om ervoor te gaan.

WHO

2 april 2007
  • 29 juni 2015
Ik denk dat iets om te overwegen is dat Apple de GTX 970 of 980 niet echt in een van hun systemen verzendt, dus ik zou niet verwachten dat Final Cut Pro erop zal zingen. Ik zou ook niet verwachten dat ontwikkelaars van derden zich op die hardware zouden concentreren.

Maar als alle OpenCL-benchmarks laten zien dat NVIDIA sneller is, dan is daar waarschijnlijk iets mee aan de hand. OpenCL is tenslotte slechts een API om workloads op de GPU uit te voeren.

koyoot

5 juni 2012
  • 29 juni 2015
Nee niet allemaal.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'js-selectToQuoteEnd'>

WHO

2 april 2007
  • 29 juni 2015
koyoot zei: Nee. Niet allemaal.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'bbCodeBlock-expandLink js-expandLink'>

Oké, allereerst rustig aan. Ten tweede, ik heb nog nooit iets gezegd over gezichtsdetectie, dat ben jij allemaal. De OpenCL-benchmark die ik een paar pagina's terug heb gepost, is een OpenCL-scèneweergave. Je kunt het hier bekijken als je een kijkje wilt nemen:
https://i.imgur.com/wiK5ZSG.png'js-selectToQuoteEnd '>

koyoot

5 juni 2012
  • 29 juni 2015
Ik heb die link niet geplaatst vanwege Fury. Je hebt daar Grenada/Hawaï GPU's en GM204. Ook blijkt Grenada in sommige taken sneller te zijn dan GTX Titan X.

Luxmark v2.1 is ook een oude benchmark. Luxmark v3 is hetzelfde, maar nieuwer en complexer. Het is als het vergelijken van scores van 3dMark Vantage met 3dMark FireStrike. De tweede is nieuwer, complexer en toont iets meer dan de oude.

Derde. ik ben helemaal rustig. Ik koop gewoon niet alles wat in reviews staat. Als je wilt geloven dat Maxwell GPU's beter zijn in computergebruik, wat niet het geval is, is het aan jou. Ik weet dat niet alles wat in recensies staat waar is, en altijd echt verouderd raakt met elke nieuwe versie van stuurprogramma's/technologie die langskomt.

WHO

2 april 2007
  • 29 juni 2015
koyoot zei: Ik heb die link niet geplaatst vanwege Fury. Je hebt daar Grenada/Hawaï GPU's en GM204. Ook blijkt Grenada in sommige taken sneller te zijn dan GTX Titan X.

Luxmark v2.1 is ook een oude benchmark. Luxmark v3 is hetzelfde, maar nieuwer en complexer. Het is als het vergelijken van scores van 3dMark Vantage met 3dMark FireStrike. De tweede is nieuwer, complexer en toont iets meer dan de oude.

Derde. ik ben helemaal rustig. Ik koop gewoon niet alles wat in reviews staat. Als je wilt geloven dat Maxwell GPU's beter zijn in computergebruik, wat niet het geval is, is het aan jou. Ik weet dat niet alles wat in recensies staat waar is, en altijd echt verouderd raakt met elke nieuwe versie van stuurprogramma's/technologie die langskomt.

Ik zeg niet dat ik de benchmarks die je hebt gedeeld niet geloof. Ik denk alleen niet dat het zo zwart-wit is als je doet voorkomen, veel van de verschillen zijn binnen een paar procentpunten als we de Fury X buiten beschouwing laten, wat ik denk niet dat we zouden moeten doen omdat het waarschijnlijk zal worden gebruikt in de Mac Pro vernieuwen.

En ik ben het ermee eens dat de nieuwere benchmarks zich moeten concentreren. Ik ben geen fanboy van Luxmark, ik weet er niets van, ik googlede gewoon OpenCL Maxwell en het was de tophit.

Drink wat limonade en geniet van het warme weer.

schemer007

5 december 2009
  • 29 juni 2015
koyoot zei: Het blijkt dat je misschien niet gelijk hebt. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Bekijk het zelf. Vóór OC had de GPU een algemene score van 12K en een grafische score van 15,5K.
100 MHz, en de GPU begint te VLIEGEN! De score is hoger dan alles wat nu op de markt is.
Misschien wil je het van dichterbij bekijken. De score sprong van 14k standaard naar 17k terwijl Maxwell OC 19,4k bereikt (terwijl hij luchtgekoeld is)
http://uk.hardware.info/reviews/615...-flag-ship-graphics-card-overclocking-results
Fury is van grote waarde op desktops, omdat je een mooi en relatief rustig waterkoelsysteem krijgt, dat alleen al zou je behoorlijk wat pesetos terugbrengen. AMD zei ook dat geheugen oc zinloos is op die GPU's, dus ik heb mijn twijfels over deze overklokresultaten. Ik controleer een paar forumthreads en geen enkele kon iets vinden dat deze resultaten bevestigt. Men slaagde er niet in zo'n overklok te krijgen en kreeg niets waardevols uit een 50Mhz geheugen overklokken.
koyoot zei: Bewerken. Over de energie-efficiëntie...
Als je een referentie Nvidia GPU hebt, dan zal deze inderdaad minder stroom verbruiken dan AMD GPU. Reference GTX 970 met BIOS-kloklimiet is echter 3 keer langzamer dan R9 280X. Als u een niet-referentie GTX 970 heeft, is er geen kloklimiet in het BIOS en is deze slechts 40% langzamer. Het probleem is: het zal 270W stroom trekken in OPENCL-werk.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Hier heb je een bewijs.
Een 280X is gemiddeld een 20-30% langzamere kaart dan een 970 in 3D werk. OpenCL-werk en een stresstest zijn niet hetzelfde. In theorie zou je zulke last-secnario's kunnen krijgen, maar in werkelijkheid komen de meeste CL-banken daar niet in de buurt.
Veel van de zwakte die Nvidia in dergelijke computerscenario's laat zien, is puur de driver.
Vergelijk de quadro M6000 met zoiets als de Firepro W9100.
http://www.tomshardware.de/quadro-m...ikkarte-benchmarks,testberichte-241756-7.html
Maxwell is redelijk goed in al deze scenario's, het toeval wil dat Nvidia niet wil dat zijn consumentenkaarten goed zijn in werkstationscenario's. Aangezien Apple verantwoordelijk is voor een aanzienlijk deel van het stuurprogramma op OSX, zouden ze onder OSX niet echt een doelbewust verlamde prestatie hebben in dit soort belastingscenario's. Waarschijnlijk niet helemaal Windows-prestaties, maar niet het grote verschil tussen werkstation- en consumentenprestaties. m

mickeydean

9 december 2011
  • 29 juni 2015
We zijn op het punt waar Apple moet proberen de markt te leiden. Ik begrijp in termen van omzet en logistiek dat het dingen in cycli doet, terwijl de pc-makers wendbaarder zijn. De 'pro'-markt kan beter worden verzorgd met opties voor meer. Ik geloof niet dat het hebben van de 750m te maken heeft met een bepaalde visie op computergebruik, maar eerder met het kopen van bulk en het gebruik van een goedkopere, zwakkere chip voor de energiebesparing, prijs, enz. Er zijn er die voor de 970m zouden betalen, maar de ontwerpen nu waarde vorm boven functie tot op zekere hoogte.

koyoot

5 juni 2012
  • 29 juni 2015
Dusk, vertel me waarom, Luxmark v2 laat zien dat GM200 sneller is dan Hawaii GPU, en Luxmark v3 laat zien dat Hawaii GPU sneller is dan GM200? Beide zijn dezelfde chips. Er zijn geen verlammende prestaties, want Maxwell in DP is ... t. Ze verschillen alleen door namen. Hoe is dat mogelijk, die oudere bank laat voordeel zien van Maxwell GPU, en nieuwere toont voordeel van Hawaii GPU?

http://scr3.golem.de/screenshots/15...uxmark-v3- (complex-scene, -gpu-only) -chart.png'js-selectToQuoteEnd '> J

joe-h2o

24 juni 2012
  • 29 juni 2015
inhalexhale1 zei: De 960m is 60% sneller dan de m370x. Ik denk niet dat het overschat is, maar eerder een voorkeurskaart voor de lagere AMD die Apple voor deze vernieuwing koos. De 950m is ook een veel betere kaart. Ik ben het eens met de klachten. Apple rekent dezelfde prijs als altijd, en hoewel de nieuwe kaart krachtiger is, is het een stap terug in de algemene klasse.

De 960M heeft ook 50% meer stroomverbruik dan de 370x, die niet zal vliegen in een toch al strak TDP-ontwerp. Het beste wat Apple zou kunnen doen, is de 950M, die vergelijkbaar is met het aanbod van AMD, misschien een beetje beter. Waarom ze niet voor Nvidia zijn gegaan, geen idee.

lowendlinux

24 sep 2014
Duitsland
  • 29 juni 2015
Heren, ik denk niet dat we dit hier gaan oplossen en om de zaken nog wat ingewikkelder te maken hebben we het nu over high-end desktop GPU's in de MacBook Pro-sectie.
reacties:hoopvol handvat

koyoot

5 juni 2012
  • 29 juni 2015
Ik zou niet zo ver gaan met het stroomverbruik. GTX960 moet binnen de 35-45W stroomverbruik envelop liggen. En als we kijken naar de review van de notebookcheck van MBP, lijkt het alsof het stroomverbruik behoorlijk hoog is, omdat het zelfs de 85W-limiet van de voeding met 6W kan overschrijden. Dus ik zou niet zeggen dat hij meer energie verbruikt dan de M370X.

Ik zou ook niet zeggen dat het 60% sneller is dan de M370X, omdat de prestaties in Final Cut Pro veel hoger zullen zijn op de AMD-chip dan elke Maxwell GPU die beschikbaar is voor een stroombudget van 45 W.

In games zal mogelijk de Nvidia GPU zelfs 60% sneller zijn. Maar games zijn niet alles.

WHO

2 april 2007
  • 29 juni 2015
koyoot zei: Ik zou niet zo ver gaan met het stroomverbruik. GTX960 moet binnen de 35-45W stroomverbruik envelop liggen. En als we kijken naar de review van de notebookcheck van MBP, lijkt het alsof het stroomverbruik behoorlijk hoog is, omdat het zelfs de 85W-limiet van de voeding met 6W kan overschrijden. Dus ik zou niet zeggen dat hij meer energie verbruikt dan de M370X.

Ik zou ook niet zeggen dat het 60% sneller is dan de M370X, omdat de prestaties in Final Cut Pro veel hoger zullen zijn op de AMD-chip dan elke Maxwell GPU die beschikbaar is voor een stroombudget van 45 W.

In games zal mogelijk de Nvidia GPU zelfs 60% sneller zijn. Maar games zijn niet alles.

De GTX 960m is 75 Watt, de 950m is 45 Watt, de M370X is 50 Watt (blijkbaar). Vorige
Volgende Eerst Vorige

Ga naar pagina

GaanVolgende Laatste