Forums

Gecombineerde R9 280X+ RX580-prestaties

startergo

originele poster
20 sep. 2018
  • 3 februari 2019
Ik heb R9 280X aangesloten via DVI in slot 1 en RX 580 aangesloten via DP naar DVI-adapter in slot 2.
Ik kan het opstartscherm zien via mijn R9 280X, maar het valt weg bij ongeveer 75% voortgang van het Apple-opstartlogo.
Wanneer HS is geladen, wordt alleen de RX 580 naar een scherm weergegeven.
In Windows 10 werkt exact dezelfde setup prima, beide kaarten worden naar hun schermen uitgevoerd. Ik kan zelfs crossfire ingeschakeld zien in de Furmark-stresstest.
Mis ik hier iets? Waarom stopt de R9 280X met de uitvoer in HS samen met de RX 580?

h9826790

3 april 2014


Hongkong
  • 3 februari 2019
startergo zei: Ik heb R9 280X aangesloten via DVI in slot 1 en RX 580 aangesloten via DP naar DVI-adapter in slot 2.
Ik kan het opstartscherm zien via mijn R9 280X, maar het valt weg bij ongeveer 75% voortgang van het Apple-opstartlogo.
Wanneer HS is geladen, wordt alleen de RX 580 naar een scherm weergegeven.
In Windows 10 werkt exact dezelfde setup prima, beide kaarten worden naar hun schermen uitgevoerd. Ik kan zelfs crossfire ingeschakeld zien in de Furmark-stresstest.
Mis ik hier iets? Waarom stopt de R9 280X met de uitvoer in HS samen met de RX 580?

Crossfire 280X met RX580? AFAIK, Crossfire-doses vereisen geen 'matched pair' GPU, maar beide GPU MOETEN tot dezelfde familie behoren.

startergo

originele poster
20 sep. 2018
  • 3 februari 2019
h9826790 zei: Crossfire 280X met RX580? AFAIK, Crossfire-doses vereisen geen 'matched pair' GPU, maar beide GPU MOETEN tot dezelfde familie behoren.
Ik was ook verrast, maar dat is wat Furmark zei: Crossfire ingeschakeld

startergo

originele poster
20 sep. 2018
  • 3 februari 2019
Bekijk media-item ' data-single-image='1'>
reacties:h9826790

h9826790

3 april 2014
Hongkong
  • 3 februari 2019
startergo zei: Bekijk bijlage 819716

Bedankt voor het delen. Interessante informatie.

Crossfire ingeschakeld.

Beide GPU's draaien op ~100%. (Dit is normaal voor Furmark)

Maar 280X warmt alleen op van 61C tot 64C. (Dit onderdeel is normaal, ervan uitgaande dat de 280X een goede koeler heeft)

De kloksnelheid van de RX580 toont 639,8 MHz, VDDC 0V, presteert slechter dan de 280X (zeker erg verkeerd).

Heb je geprobeerd de 280X te verwijderen en dezelfde test uit te voeren met alleen de RX580?

startergo

originele poster
20 sep. 2018
  • 4 feb. 2019
h9826790 zei: Bedankt voor het delen. Interessante informatie.

Crossfire ingeschakeld.

Beide GPU's draaien op ~100%. (Dit is normaal voor Furmark)

Maar 280X warmt alleen op van 61C tot 64C. (Dit onderdeel is normaal, ervan uitgaande dat de 280X een goede koeler heeft)

De kloksnelheid van de RX580 toont 639,8 MHz, VDDC 0V, presteert slechter dan de 280X (zeker erg verkeerd).

Heb je geprobeerd de 280X te verwijderen en dezelfde test uit te voeren met alleen de RX580?
De spanning is 0VDC, misschien omdat ik hem van de SATA-stroom voed en hij niet zo nauwkeurig meet:

Bekijk media-item ' data-single-image='1'>

h9826790

3 april 2014
Hongkong
  • 4 feb. 2019
startergo zei: De spanning is 0VDC, misschien omdat ik hem van de SATA-stroom gebruik en hij niet zo nauwkeurig meet:

Bekijk bijlage 819791

Die VDDC moet van de grafische kaart worden gelezen, niet van de stroombron. Dus daar is iets mis (absoluut verkeerd lezen, kan een softwareprobleem zijn, niet noodzakelijk hardwaregerelateerd).

Het lijkt erop dat je kaart thermische / stroombeperking had. Ik vermoed dat dit komt doordat de OEM-kaart een lagere TDP-limiet heeft dan de normale, waardoor de kaart eerder het stroombeperkingspunt bereikt dan de normale RX580.

Hoe dan ook, gemiddelde FPS 87 versus 54, de crossfire lijkt echt te presteren zoals verwacht.

Het kan zijn dat alle GCN GPU's nu crossfired kunnen worden. Die gebruik ik al een paar jaar niet meer. Niet helemaal zeker wat de meest up-to-date vereiste is.

startergo

originele poster
20 sep. 2018
  • 4 feb. 2019
h9826790 zei: Die VDDC moet van de grafische kaart worden gelezen, niet van de stroombron. Dus daar is iets mis (absoluut verkeerd lezen, kan een softwareprobleem zijn, niet noodzakelijk hardwaregerelateerd).

Het lijkt erop dat je kaart thermische / stroombeperking had. Ik vermoed dat dit komt doordat de OEM-kaart een lagere TDP-limiet heeft dan de normale, waardoor de kaart eerder het stroombeperkingspunt bereikt dan de normale RX580.

Hoe dan ook, gemiddelde FPS 87 versus 54, de crossfire lijkt echt te presteren zoals verwacht.

Het kan zijn dat alle GCN GPU's nu crossfired kunnen worden. Die gebruik ik al een paar jaar niet meer. Niet helemaal zeker wat de meest up-to-date vereiste is.
Het TDP van de kaart is 130W. Misschien omdat ze dezelfde driver gebruiken, is de crossfire ingeschakeld? Ik weet dat als ik het basisvideostuurprogramma op een van hen selecteer, ze niet op dezelfde manier zullen werken. Wat me stoort is dat in HS de 280 de uitgang uitschakelt. Enig idee waarom?

h9826790

3 april 2014
Hongkong
  • 4 feb. 2019
startergo zei: De TDP van de kaart is 130W. Misschien omdat ze dezelfde driver gebruiken, is de crossfire ingeschakeld? Ik weet dat als ik het basisvideostuurprogramma op een van hen selecteer, ze niet op dezelfde manier zullen werken. Wat me stoort is dat in HS de 280 de uitgang uitschakelt. Enig idee waarom?

Maar je schermopname laat zien dat het TDP van de RX580 185W is. Wees daar voorzichtig mee. Het TDP van de kaart is 130W, maar dat betekent hoogstwaarschijnlijk dat de koeloplossing goed is voor maximaal 130W. En uw kaart kan tot 185W trekken uit de softwarelezing. En dat is zeker geen goed teken voor een enkele 6pin-kaart.

Hoe dan ook, ik heb al mijn HD7950, R9 280, R9 380 al verkocht, kan het niet testen met de RX580. Maar als uw 280X probleemloos kan werken bij het opstarten vanaf het originele ROM, dan veroorzaakt de Mac EFI blijkbaar compatibiliteitsproblemen.

startergo

originele poster
20 sep. 2018
  • 4 feb. 2019
h9826790 zei: Maar je schermopname laat zien dat het TDP van de RX580 185W is. Wees daar voorzichtig mee. Het TDP van de kaart is 130W, maar dat betekent hoogstwaarschijnlijk dat de koeloplossing goed is voor maximaal 130W. En uw kaart kan tot 185W trekken uit de softwarelezing. En dat is zeker geen goed teken voor een enkele 6pin-kaart.

Hoe dan ook, ik heb al mijn HD7950, R9 280, R9 380 al verkocht, kan het niet testen met de RX580. Maar als uw 280X probleemloos kan werken bij het opstarten vanaf het originele ROM, dan veroorzaakt de Mac EFI blijkbaar compatibiliteitsproblemen.
Het maakt niet uit welke ROM ik gebruik. Ik heb geen problemen met het gebruik van een enkele kaart als beide zijn geïnstalleerd. Wat de stroom betreft, leveren de 2 SATA 108W stroom, dus er is voldoende stroom op de 6-pins. Ik weet niet hoe het 185W kan trekken als het beperkt is in de ROM?

h9826790

3 april 2014
Hongkong
  • 4 feb. 2019
startergo zei: Het maakt niet uit welke ROM ik gebruik. Ik heb geen problemen met het gebruik van een enkele kaart, alleen als beide zijn geïnstalleerd. Wat de stroom betreft, leveren de 2 SATA 108W stroom, dus er is voldoende stroom op de 6-pins. Ik weet niet hoe het 185W kan trekken als het beperkt is in de ROM?

De standaard ROM-instelling is NIET beperkt tot 130 W voor uw kaart. Het is een vooraf gedefinieerd aantal met 50% PowerTune, wat betekent dat als 130W met 150% max, dat in staat zal zijn om 195W te trekken.
Bekijk media-item ' data-single-image='1'>
Zoals je kunt zien aan je gewonnen schermopname, is de 'Power max' 150% (dit is de PowerTune-limiet). En het geregistreerde TDP is op dat moment 185W. Als we aannemen dat 185W de +50% is van de vooraf gedefinieerde TDP. Dan zou dat ~123W moeten zijn. En zolang PowerTune op 150% blijft, kan uw kaart tot 185 W opnemen (indien niet thermische beperking enz.).

In Windows kunt u in het configuratiescherm van de AMD-driver het PowerTune-nummer zien en aanpassen. Maar in macOS krijgt het dat nummer alleen van de ROM. In uw geval max. +50%.

Het probleem van uw kaart is ook dat u NIET te veel uit de 6pin trekt, maar uit de sleuf.

De cMP lijkt redelijk goed gebouwd. Dus meer dan 75W uit een slot trekken lijkt geen nadelig effect te hebben (althans waar voor een korte periode). Tot nu toe geen enkel geval gehoord dat daardoor het logic board verbrandde. Er waren echter nogal wat moederborden voor gaming-pc's die daardoor de dupe werden.

De kaart weet niet hoeveel hij op de 6pin kan trekken (bijv. tot 108W), maar weet alleen hoe hij het gevraagde vermogen moet trekken volgens het voorgeprogrammeerde patroon. In het geval van uw kaart. Het lijkt erop dat de kaart de vraag gewoon door 2 deelt. Daarom, als echt 180W trekt, kan dat 90W van de 6pin en 90W van de sleuf betekenen.

Hoe dan ook, als EFI geen verschil maakt, maar multi-GPU wel, dan klinkt het als een driverconflict.

startergo

originele poster
20 sep. 2018
  • 10 feb. 2019
h9826790 zei: De ROM-standaardinstelling is NIET beperkt tot 130 W voor uw kaart. Het is een vooraf gedefinieerd aantal met 50% PowerTune, wat betekent dat als 130W met 150% max, dat in staat zal zijn om 195W te trekken.
Bekijk bijlage 819863
Zoals je kunt zien aan je gewonnen schermopname, is de 'Power max' 150% (dit is de PowerTune-limiet). En het geregistreerde TDP is op dat moment 185W. Als we aannemen dat 185W de +50% is van de vooraf gedefinieerde TDP. Dan zou dat ~123W moeten zijn. En zolang PowerTune op 150% blijft, kan uw kaart tot 185 W opnemen (indien niet thermische beperking enz.).

In Windows kunt u in het configuratiescherm van de AMD-driver het PowerTune-nummer zien en aanpassen. Maar in macOS krijgt het dat nummer alleen van de ROM. In uw geval max. +50%.

Het probleem van uw kaart is ook dat u NIET te veel uit de 6pin trekt, maar uit de sleuf.

De cMP lijkt redelijk goed gebouwd. Dus meer dan 75W uit een slot trekken lijkt geen nadelig effect te hebben (althans waar voor een korte periode). Tot nu toe geen enkel geval gehoord dat daardoor het logic board verbrandde. Er waren echter nogal wat moederborden voor gaming-pc's die daardoor de dupe werden.

De kaart weet niet hoeveel hij op de 6pin kan trekken (bijv. tot 108W), maar weet alleen hoe hij het gevraagde vermogen moet trekken volgens het voorgeprogrammeerde patroon. In het geval van uw kaart. Het lijkt erop dat de kaart de vraag gewoon door 2 deelt. Daarom, als echt 180W trekt, kan dat 90W van de 6pin en 90W van de sleuf betekenen.

Hoe dan ook, als EFI geen verschil maakt, maar multi-GPU wel, dan klinkt het als een driverconflict.

De GPU-Z heeft slechts 130-135W maximaal gebruik gemeten op de RX-580. Het toont ook correct de maximale spanning van 1,025VDC. Ik probeerde een andere testsoftware en de frequentie sprong naar 1300ish
Het is me ook gelukt om beide kaarten naar de schermen in HS uit te voeren door een miniDP naar VGA-converter te gebruiken. Dus beide displayports werken naar behoren, maar de DVI wordt uitgeschakeld in een configuratie met 2 kaarten.

h9826790

3 april 2014
Hongkong
  • 12 feb. 2019
startergo zei: De GPU-Z heeft slechts 130-135W maximaal verbruik gemeten op de RX-580. Het toont ook correct de maximale spanning van 1,025VDC. Ik probeerde een andere testsoftware en de frequentie sprong naar 1300ish
Het is me ook gelukt om beide kaarten naar de schermen in HS uit te voeren door een miniDP naar VGA-converter te gebruiken. Dus beide displayports werken naar behoren, maar de DVI wordt uitgeschakeld in een configuratie met 2 kaarten.

130-135W GPU-verbruik of grafische kaartverbruik?

Heb je in het AMD-stuurprogrammapaneel gecontroleerd of de power tune 50% is.

Hoe dan ook, het lijkt erop dat 6xx MHz te wijten is aan vermogensbeperking. AMD heeft de fix uitgebracht (die voorkomt dat de kaart te veel uit het PCIe-slot trekt) via stuurprogramma-update, het is mogelijk dat het stroomverbruik van uw kaart daardoor wordt beperkt door het stuurprogramma. Maar in macOS kan het gedrag ervan anders zijn omdat er geen extra stroomverbruikbeperking meer is van het stuurprogramma. Hoe dan ook, zo laag NG als uw dagelijkse workflow Furmark niet uitvoert, zou geen probleem moeten zijn.

startergo

originele poster
20 sep. 2018
  • 12 feb. 2019
h9826790 zei: 130-135W GPU-verbruik of grafische kaartverbruik?

Heb je in het AMD-stuurprogrammapaneel gecontroleerd of de power tune 50% is.

Hoe dan ook, het lijkt erop dat 6xx MHz te wijten is aan vermogensbeperking. AMD heeft de fix uitgebracht (die voorkomt dat de kaart te veel uit het PCIe-slot trekt) via stuurprogramma-update, het is mogelijk dat het stroomverbruik van uw kaart daardoor wordt beperkt door het stuurprogramma. Maar in macOS kan het gedrag ervan anders zijn omdat er geen extra stroomverbruikbeperking meer is van het stuurprogramma. Hoe dan ook, zo laag NG als uw dagelijkse workflow Furmark niet uitvoert, zou geen probleem moeten zijn.
Ik denk dat er iets mis is met de Furmark, aangezien ik heb getest met andere software (vergeten welke) en de kaart op volle snelheid liep in een stresstest. Bovendien ziet hij de spanningsafname niet goed. Maar ja, de GPU-Z heeft 135W stroomverbruik gemeten, wat overeenkomt met de ROM-limiet.

h9826790

3 april 2014
Hongkong
  • 12 feb. 2019
startergo zei: Ik denk dat er iets mis is met de Furmark, aangezien ik heb getest met een andere software (vergeten welke) en de kaart op volle snelheid liep in een stresstest. Bovendien ziet hij de spanningsafname niet goed. Maar ja, de GPU-Z heeft 135W stroomverbruik gemeten, wat overeenkomt met de ROM-limiet.

Naast Furmark kun je OCCT proberen.
reacties:startergo

MIKX

16 december 2004
Japan
  • 25 juni 2019
startergo

Wat is uw GPU-stroomkabelconfiguratie voor beide kaarten? Laatst bewerkt: 25 juni 2019