PDA

Просмотр полной версии : ATI (radeon) или Geforce


AbuMuslim
20.09.2008, 21:53
ATI (radeon) или Geforce Какой лучше...?

Akmal Bafoev
20.09.2008, 21:59
вопрос больше религиозный чем технический :)
плюс в ташкенте проще найти Nvidia Geforce

Makarov
20.09.2008, 22:46
Если современные, то ATI(AMD) рвут nVidia как тузик грелку - во всех ценовых диапазонах. Если прошлое поколение, то nVidia немного получше будет.

Sergey Barkas
20.09.2008, 22:50
У меня на работе GeForce 8800 GTX. Шайтан, а не карта. Рекомендую!

iDead
20.09.2008, 23:42
ATI (radeon) или Geforce Какой лучше...?
А примерно какой бюджет на видеокарты планируете?

AbuMuslim
21.09.2008, 03:16
У меня два компа...
На одном Nvidia GeForce 8600 GT проблем нет...

на другом... ATI (radeon) был... но он "сгорел" и я купил Nvidia GeForce... но есть проблемы... т.е он часто перезагружается (он простые игры "не тянет") может он с мамкой конфликтует... не могу понят... я должен поменят или новый ATI нужен

iDead
21.09.2008, 05:06
У меня два компа...
На одном Nvidia GeForce 8600 GT проблем нет...

на другом... ATI (radeon) был... но он "сгорел" и я купил Nvidia GeForce... но есть проблемы... т.е он часто перезагружается (он простые игры "не тянет") может он с мамкой конфликтует... не могу понят... я должен поменят или новый ATI нужен
А "проблемный" GeForce мощнее чем Nvidia GeForce 8600 GT? Если у вас мощная видеокарта - то возможно там питание не хватает. Другими словами мощности Блока Питания не хватает. Обычно это бывает так: при включении компьютера, виндоус загружается, так как видеокарта не очень сильно задействована в начале. А потом, когда запускается фильм или игра, то уже идет нагрузка на видеокарту и электричества уже начинает не хватать, и компьютер перезагружается. То же самое происходит при вставке двд-диска на двд-ром: дисковод тоже требует питания.

Если же комп не перезагружается, а просто застывает при игре, то это скорее всего от перегрева видеокарты. Значит там охлаждение не очень хорошее. Чем мощнее видеокарта, тем большее питание ей нужно и, как в следствии, тем больше тепла она выделяет и соответственно требует более лучшего вентилятора. Иначе она может просто сгореть. (Возможен еще вариант: корпус маленький и даже мощные вентиляторы не дают хорошего охлаждения, так как циркуляция воздуха в нем не очень хорошая)

Vitaliy Fioktistov
21.09.2008, 08:19
Какая конфигурация "проблемной" машины?

Evgeniy Sklyarevskiy
21.09.2008, 13:13
еще знакомый гуру говорил, что оперативка компа должна быть в разы больше объема ОЗУ видеокарты, иначе на играх она не покажет всю мощь и нет смысла ставить хорошую видеокарту.

JH
21.09.2008, 13:41
NVIDIA с последними драйверами все чаще огорчает, когда дело доходит до вывода картинки на ТВ через S-Video. Полноэкранный вывод на второй монитор (тв) имеет глюки с соотношением сторон, а на самых последних дровах на втором мониторе, т.е. на тв, нет картинки вообще (при этом гугль говорит что для решения проблемы надо спаять бубен из с-видео коннектора и 75-ом резистора, и плясать с этим бубном каждый раз при включении компа). Моей следующей видеокартой будет Radeon.

Vitaliy Fioktistov
21.09.2008, 14:48
NVIDIA с последними драйверами все чаще огорчает, когда дело доходит до вывода картинки на ТВ через S-Video. Полноэкранный вывод на второй монитор (тв) имеет глюки с соотношением сторон, а на самых последних дровах на втором мониторе, т.е. на тв, нет картинки вообще (при этом гугль говорит что для решения проблемы надо спаять бубен из с-видео коннектора и 75-ом резистора, и плясать с этим бубном каждый раз при включении компа). Моей следующей видеокартой будет Radeon.

По моему скромному мнению, карты ATi всегда лучше работали с ТВ. И само железо и ПО.

Alisher Umarov
22.09.2008, 14:54
По моему скромному мнению, карты ATi всегда лучше работали с ТВ. И само железо и ПО.

Аналогично

Dolphin
22.09.2008, 15:01
Я бы сказал так - ATI/AMD выдают более качественную картинку, Nvidia - быстрей (ненамного). Нормальный вывод на TV (или HDTV) - ниша ATI. Однако, драйвера Radeon для линукса отличаются большой кривизной...

JH
23.09.2008, 00:42
Еще вопрос спецам возник такой.

Чем отличается Workstation Video Card (как то: FireGL от ATI и всякие Quadro от Nvidia) от Desktop Video Card (Radeon/GeForce)?

Какие плюсы у Workstation? Минусы? Почему оно при прочих равных стоит дороже чем Desktop (или нет, дешевле?) ... (с) копирайты на многоточие сохранены сами знаете за кем

Что порекомендуете для моих целей, заключающихся в левой ногой обработке фотографий, несерьезном кодировании видео, интенсивном использовании телевизора с иногда одновременным игранием в несамую свежую игрушку?

Efim Kushnir
23.09.2008, 07:20
Что порекомендуете для моих целей, заключающихся в левой ногой обработке фотографий, несерьезном кодировании видео, интенсивном использовании телевизора с иногда одновременным игранием в несамую свежую игрушку?
Я бы в таком серьезном случае рекомендовал дольше бывать на свежем воздухе и с семьей, и черт с ней, с видяхой, но это же будет флуд и офтоп :)

Dolphin
23.09.2008, 12:45
Чем отличается Workstation Video Card (как то: FireGL от ATI и всякие Quadro от Nvidia) от Desktop Video Card (Radeon/GeForce)?
Аппаратно они различаются не особенно (во всяком случае, современный модели), разница в прошивке и драйверах.Профессиональная линейка немного медленней, но у нее точней антиалиасинг (игровые видяшки выдают весьма стремную картинку в wireframe-режимах) и еще куча примочек для CAD и подобных вещей. Играть на них затруднительно...
Что порекомендуете для моих целей, заключающихся в левой ногой обработке фотографий, несерьезном кодировании видео, интенсивном использовании телевизора с иногда одновременным игранием в несамую свежую игрушку?
Radeon HD2600XT - заработают большинство даже современных игр, есть поддержка HDTV ~$100
Radeon 1600XT - медленней, дешевле, без HD. ~$65.

Плюс ати в работе с телевизором - умение выводить видеопоток на телевизор или второй монитор (theater mode). Можно запустить плеер, свернуть его окошко - на телевизоре все равно будет полноэкранная картинка. У нвидии для этого потребуются жуткие извращения...

Andrey Afanasyev
18.10.2008, 12:50
Чем отличается Workstation Video Card (как то: FireGL от ATI и всякие Quadro от Nvidia) от Desktop Video Card (Radeon/GeForce)?
Аппаратно они различаются не особенно (во всяком случае, современный модели), разница в прошивке и драйверах.Профессиональная линейка немного медленней, но у нее точней антиалиасинг (игровые видяшки выдают весьма стремную картинку в wireframe-режимах) и еще куча примочек для CAD и подобных вещей. Играть на них затруднительно...
Что порекомендуете для моих целей, заключающихся в левой ногой обработке фотографий, несерьезном кодировании видео, интенсивном использовании телевизора с иногда одновременным игранием в несамую свежую игрушку?
Radeon HD2600XT - заработают большинство даже современных игр, есть поддержка HDTV ~$100
Radeon 1600XT - медленней, дешевле, без HD. ~$65.

Плюс ати в работе с телевизором - умение выводить видеопоток на телевизор или второй монитор (theater mode). Можно запустить плеер, свернуть его окошко - на телевизоре все равно будет полноэкранная картинка. У нвидии для этого потребуются жуткие извращения...
Имхо лучше уже ждать 4650 и 4670... (рекомендованная цена USD70-80)
9500/9600 нерно курят в сторонке....

JH
18.10.2008, 14:40
Имхо лучше уже ждать 4650 и 4670... (рекомендованная цена USD70-80)
9500/9600 нерно курят в сторонке....

Заказал с newegg.com VisionTek HD4850 512MB GDDR3 - выходит в районе 180 долларов с доставкой через знакомых.

Azamat Shamuzafarov
18.10.2008, 16:06
Evgeniy Sklyarevskiy, память видеокарты нужна для текстур высокого разрешения вот и все.

Makarov
18.10.2008, 17:42
Какие плюсы у Workstation? Минусы? Почему оно при прочих равных стоит дороже чем Desktop (или нет, дешевле?) ...
Профессиональные адаптеры (в содружестве с драйверами) в профессиональных приложениях дают производительность иногда большую в разы.
Дороже ибо товар менее массовый, качество исполнения часто получше, гарантии часто подольше - потому как для работы, а не для развлечений

JH
19.10.2008, 23:02
а на самых последних дровах на втором мониторе, т.е. на тв, нет картинки вообще (при этом гугль говорит что для решения проблемы надо спаять бубен из с-видео коннектора и 75-ом резистора, и плясать с этим бубном каждый раз при включении компа)

Для информации: в драйвере 178.24 от 16 октября решена проблема с сигналом на ТВ через S-Video. Полноэкранного оверлея нет и не будет, но к этому мы уже привыкли. Хорошо хоть какая-то картинка на ТВ появилась. А то приходилось юзать версию аж 84.21 (с низкими FPS и вылетами в игрушке)

Алишер Рузметов
20.10.2008, 17:36
Плюс ати в работе с телевизором - умение выводить видеопоток на телевизор или второй монитор (theater mode). Можно запустить плеер, свернуть его окошко - на телевизоре все равно будет полноэкранная картинка. У нвидии для этого потребуются жуткие извращения...

У Нвидии одна галочка. Или РадиоКнопка. В зависимости от драйвера.

JH
20.10.2008, 18:08
У Нвидии одна галочка. Или РадиоКнопка. В зависимости от драйвера.

Только это будет очень старый драйвер. В новых этой функции нет.

Dmitriy Matyashov
17.07.2009, 12:37
Если современные, то ATI(AMD) рвут nVidia как тузик грелку - во всех ценовых диапазонах. Если прошлое поколение, то nVidia немного получше будет.

Не согласен, наоборот. Предыдущие поколения Radeon (9600, 9800, X800) в ценовом диапазоне действительно были выгоднее. Отрисовка анизотропии была качественее и производительнее. К примеру видеокарта Radeon 9700 pro 256/256, которая стоила порядка 95 $, была просто зверем по сравнению с картами GF 5700, 6200 и др., которые стоили примерно также - аналог по производительности был только GF 6600 / 6800 (хотя стоил порядком дороже).
Но с выходом GeForce (GF) 7600GT все поменялось. И анизотропия по качесту и производительности поднялась выше предыдущих поколений - да и в ценовой политике была очень выгодным предложением. Так и поехало.
Сегодня же, в-основном самые мощные видеокарты у GF. Да и стоят они своих денег, так как их произволительность этому соответствует.
Потом, качество видеокарт на чипсете nVidia сейчас превосходит, в большинстве случаев, Radeon (у них, в свою очередь очень частые проблемы с драйверами). Также, следует учесть, что компания AMD выкупила (на сколько я знаю) Radeon и так как сейчас она испытывает сильный натиск со стороны Intel, которые в свою очередь заполонили рынок высокопроизводительных процессоров Core 2 Duo, которые явно мощнее решений AMD - им приходится тяжко выпускать достойные решения, так как капитала то не совсем хватает - много уходит на конкурентные решения против Intel.
Но, AMD все-таки пытается выкарабкаться. Не так давно, она собрала все силы, выделила ценный бюджет и выпустила достойный продукт AMD Radeon 4850 / 4870. Этот чип действительно просто "отполирован", действительно мощный, конкурирует с GF 8800GT / 9800GT, практически подтягивается к производительности GF 9800GTX. Хорошее решение и стоит по деньгам вполне выгодным.
В наше время, ситуация такая: Рекомендую покупать видеокарты 9800GT, 9800GTX / 9800GTX+ - стоят своих денег. Единственный конкурент в ценовом диапазоне - Radeon 4850 / 4870 (жалко, что у них существуют недоработке в ПО - драйверах). Сам чип Radeon хорош, но GF (мое мнение) выглядет получше - более отточен, да и устоичив более. Этих видеокарт хватит на любые игрушки, и только в самых последних, навороченных - нужно будет просто чуть понизить качество графики, чтобы было приемлемо (без тормозов) играть.
Ну а экстрималам, можно будет прикупить новые решения nVidia - GTX260 / 280 и т.д. Эти видяшки очень серьезные - и потребляют уже тоже серьезно.

Sobir Atamirzaev
17.07.2009, 12:42
Кстати, вопрос к знатокам, как дела у nVidia c новыми картами по 40 нм технологии?
У ATI вроде все хорошо начиналось с их первенцем по 40 нм - HD4770, но очевидно процесс не пошел, дефицит жуткий.

Сам жду новых 40 нм. карт от Зеленого гиганта.

Dmitriy Matyashov
17.07.2009, 13:06
Кстати, вопрос к знатокам, как дела у nVidia c новыми картами по 40 нм технологии?

Даже не слышал о чипах по технологии 40 нм. На основе 55 нм знаю - тот же GTX 295 - топовая видяшка. А про 40 (а хотя бы 50 или 45 нм-ую технологию пока не слышал). да если такое счастье и привалит - недешево наверное будет, хотя тех процесс уменьшает затраты на производство....

Sobir Atamirzaev
17.07.2009, 13:36
да если такое счастье и привалит - недешево наверное будет, хотя тех процесс уменьшает затраты на производство....

Первенец ATI 40 нм. HD 4770 был многообещающим, эта карта по цене ровно в 100 у.е., значительно обходит 9800 GT от nVidia за 140 у.е. Две HD 4770 в связке cross-fire наравне с GTX 285 за 350 у.е. Плюс потребление электроэнергии намного меньше - 70 Вт/ч, и естественно эти карты от ATI намного прохладней своих зеленых конкурентов.

Но тайванцы все испортили, они никак не могут наладить производство чипов по столь тонкой технологии, у них получаются бракованные пластины - утечка тока.

nVidia выйдет с подобным решением самое ранее этой осенью. И то видимо сделает только анонс о выпуске новых карт.

AMD (ATI) был шанс с этими 40 нм. картами сделать много вреда nVidia, да не вышло!

Dolphin
17.07.2009, 13:55
еще знакомый гуру говорил, что оперативка компа должна быть в разы больше объема ОЗУ видеокарты, иначе на играх она не покажет всю мощь и нет смысла ставить хорошую видеокарту.

Ну вот у меня 4гб памяти и matrox millenium с 4мб видеопамяти. Т.к. объем оперативки превышает объем видеопамяти в 1024 раза, следует ли ожидать рекордного FPS в Crysis?

Dmitriy Matyashov
17.07.2009, 14:16
Да, действительно Radeon 4770 изготовлен по 40 нанометровой технологии.

Но, кстати, далеко не вовсех тестах он опережает GF 9800GT.

Приятное удивление, что радеон основывается лишь на 128-битной шине памяти и ухитряется приближится к произволительности GF 9800GT с 256-битной. Наверное разработчики нашли компромис между тактовой частотой и разрядностью шин памяти, так как у Radeon 4770 частота графического процессора аж 750 МГц, против 600 у GF 9800GT, да и у шейдерных процессоров частота немалая - 3200 МГц, против 1800 у GF 9800GT.

В-общем, действительно хороша новинка, только (по-моему) она еще сыровата.

Sobir Atamirzaev
17.07.2009, 14:24
Но, кстати, далеко не вовсех тестах он опережает GF 9800GT.
Есть разные данные.

В-общем, действительно хороша новинка, только (по-моему) она еще сыровата.
Поэтому я жду новинок nVidia, хочется надеется, что за такое время (отставание в год) они смогут довести этот 40 нм. процесс до ума.

Dmitriy Matyashov
17.07.2009, 14:51
Поэтому я жду новинок nVidia, хочется надеется, что за такое время (отставание в год) они смогут довести этот 40 нм. процесс до ума.

Скорее всего придумают. Конкуренция. Кстати, благодаря ей и IT-рынок и движется вперед. Вечная борьба - но для нас же лучше ))

YUU
17.07.2009, 22:35
А про 40 (а хотя бы 50 или 45 нм-ую технологию пока не слышал). Есть статьи www.fcenter.ru (http://www.fcenter.ru)
3dnews.ru, ixbt.com, thg.ru очень подробно расписали 4770 АТИ карту и то что при ее стоимости она самая самая

Sobir Atamirzaev
17.07.2009, 22:57
что при ее стоимости она самая самая
Только что у нас этой HD 4770 не купить! :( Ваах деписит опять!

YUU
17.07.2009, 23:21
Только что у нас этой HD 4770 не купить! Ваах деписит опять! она пока везде девицит. поэтому АТИ снизило цены на старшие модели

Kikaxa
27.03.2013, 19:47
Чтобы не плодить похожие темы, реанимирую эту.

Помогите обоснованным советом.
Есть возможность привезти видяху в пределах 7700 рублей (http://www.ulmart.ru/catalog/videocards?sort=5&viewType=0&rec=true&minPrice=5000&maxPrice=7700). Ответ надо сказать утром. Именно из этого магазина. Я выбрал по фильтру, но растерялся от многообразия. Порекомендуйте, пожалуйста:
1. ATI vs nVidia?
2. Ti или неTi?
3. Сейчас стоит видяха GF285GTX 1Gb/512bit, но такой разрядности нет, максимум 2Gb/256bit. СтОит заморачиватся на разрядность по шине или миф?
4. Мамка PCI-E 2.0 x16, а видяхи многие PCI-E 3.0 x16 — будет или нет конфликт?
5. Прочее

Отзывы читал, но всё переварить не в состоянии. Спасибо.

Shitikov Roman
27.03.2013, 23:09
1. ATI vs nVidia?
Игры или рендеринг? Если поиграть то нвидиа, для рисования и прочих графических нагрузок радик. Хотя так было раньше, сейчас скорее приевшийся штамп. Я ни разу не брал радеонов, ничего плохого и хорошего про них не могу сказать. Предпочитаю NVidia. Из того что имеется выбрал бы эту (http://www.ulmart.ru/goods/353135) у неё неплохое охлаждение, что актуально для нашего региона. А в целом все там перечисленные 660GTX одинаковые. И как раз в бюджет влазиет цена и попадаете на какую то акцию. ИМХО.

Denis Shlyapnikov
27.03.2013, 23:32
Чтобы не плодить похожие темы, реанимирую эту.

Помогите обоснованным советом.
Есть возможность привезти видяху в пределах 7700 рублей (http://www.ulmart.ru/catalog/videocards?sort=5&viewType=0&rec=true&minPrice=5000&maxPrice=7700). Ответ надо сказать утром. Именно из этого магазина. Я выбрал по фильтру, но растерялся от многообразия. Порекомендуйте, пожалуйста:
1. ATI vs nVidia?
2. Ti или неTi?
3. Сейчас стоит видяха GF285GTX 1Gb/512bit, но такой разрядности нет, максимум 2Gb/256bit. СтОит заморачиватся на разрядность по шине или миф?
4. Мамка PCI-E 2.0 x16, а видяхи многие PCI-E 3.0 x16 — будет или нет конфликт?
5. Прочее

Отзывы читал, но всё переварить не в состоянии. Спасибо.
1. nVidia
2. Конечно Ti. Такая видео-карта мощнее своего собрата на процентов 15
3. 256 Вполне нормально. Для чего больше?)

Всегда выбирал nVidia и доволен :)

Kikaxa
27.03.2013, 23:56
выбирал nVidia
Какую бы из представленных ты выбрал?

YUU
28.04.2013, 10:45
1. nVidia 2. Конечно Ti.После выкрутасов с необходимостью пропекать карты в печке еще пару поколений пропустить нужно, как минимум. Репутация подпорчена основательно.

Только Радеон - оптимальнее за свои те -же деньги. Кстати вышла самая быстрая карта в мире 7990.