المساعد الشخصي الرقمي

مشاهدة النسخة كاملة : Nvidia تقوم بعرض للـ Compute Shader من DX11 في معرض GDC 2009



الصفحات : [1] 2

aziz-50
03-04-2009, 05:52
السلام عليكم ورحمة الله وبركاته

قامت Nvidia بعرض Demo لل DirectX11 في معرض GDC 2009 , هذا العرض كان عباره عن منظر للمحيط مدته 24 ثانية .


https://www.pcgameshardware.de/screenshots/medium/2009/04/DirectX-11-Compute-Shader-Demo-GDC-2009-Nvidia-04.jpg


للمشاهده :
https://www.pcgameshardware.de/aid,680467/DirectX-11-Compute-Shader-auf-der-GDC-2009-in-Aktion/Technologie/News/

Jiraiya
03-04-2009, 06:13
تسلم أخي عزيز :)

-M7mD
03-04-2009, 09:02
مشكور أخي عزيز ;)

ADEeEL
03-04-2009, 11:39
مشكور اخوي عزيز عند الدخول على الرابط فهوا يظهر الكثير من العروض المنوعة للدايركت اكس11 وليس عرض واحد كما تقول .. وشكرا

أبو فطنة
03-04-2009, 12:19
DX11 + فيزيكس

يالله اعلق واصفق

Jiraiya
03-04-2009, 12:54
DX11 + فيزيكس

يالله اعلق واصفق

يا يوسف سيف هل zizo موجود :D

أبو فطنة
03-04-2009, 13:11
استاذ جمال لاتتمغجربي

ترى ادق على جوالك ونتحارب :P

Mubarak
03-04-2009, 13:57
شغل جميل بصراحة لكن لو كانت هذه الامواجعنيفة في رياح قوية سيكون المنظر اجمل.

Asad_AL_net
03-04-2009, 13:58
لو يعطونا Demo نجرب بنفسنا افضل بكثييير :)


وفقك اللع عزيز

™ The Rock
03-04-2009, 14:30
فعلا وهم
الفيزكس مع dx11 عامل شغل عالي اوي

alocom
03-04-2009, 16:09
خطوة موفقة وممتازة من نيفيديا ...تحسب نقطة لصالحها .

Stone
03-04-2009, 16:13
3ajeeb ya aziz :)

HD5870X2
03-04-2009, 17:42
هل تم العرض بهاردوير إنفيديا ؟

هل هذا الهاردوير مصمم على ال 40nm ؟

ملحوظة مهمة : هذا ليس PhysX ......هذا يوضح أن ال PhysX قد انتهى

هذا هو ال Compute Shader وهو المسئول عن ال Physics في ال DX11 وفي هذه الحالة تكون إنفيديا نفسها اعترفت بنهاية ال PhysX ;)

-M7mD
03-04-2009, 23:02
هو ال Compute Shader وهو المسئول عن ال Physics في ال DX11
أذا هاك لماذا تقوم ATi بسعي على محرك فيزيائي !! :p

trt44
04-04-2009, 00:32
هل تم العرض بهاردوير إنفيديا ؟

هل هذا الهاردوير مصمم على ال 40nm ؟

ملحوظة مهمة : هذا ليس PhysX ......هذا يوضح أن ال PhysX قد انتهى

هذا هو ال Compute Shader وهو المسئول عن ال Physics في ال DX11 وفي هذه الحالة تكون إنفيديا نفسها اعترفت بنهاية ال PhysX ;)
Physx محرك فيزيائي يعمل على كروت Nvidia عن طريق واجهة Cuda
Compute shader مجموعة تعليمات و دوال في directX11 لعمل GPGPU أو الحسابات العامة في ال GPU و التي سوف تستخدمها الألعاب لتحويل الحسابات الفيزيائية إلى GPU بدلاً عن CPU
كل ما في الأمر هو أن Nvidia تعرض لنا Demo عن Physx و هو يعمل عن طريق واجهة DirectX11 بدلاً عن Cuda و ليس Demo عن نهاية Physx

k@spersky
04-04-2009, 00:53
Physx محرك فيزيائي يعمل على كروت Nvidia عن طريق واجهة Cuda
Compute shader مجموعة تعليمات و دوال في directX11 لعمل GPGPU أو الحسابات العامة في ال GPU و التي سوف تستخدمها الألعاب لتحويل الحسابات الفيزيائية إلى GPU بدلاً عن CPU
كل ما في الأمر هو أن Nvidia تعرض لنا Demo عن Physx و هو يعمل عن طريق واجهة DirectX11 بدلاً عن Cuda و ليس Demo عن نهاية Physx
أخي الكريم كلامك بالأحمر يؤكد كلام الأخ مينا ,أشعر بتناقض الجملة الأخيرة مع ذلك
فبما إن DX11 ستقوم بتحويل التعليمات والحسابات الفيزياية من المعالج الرسومي إلى المعالج الحسابي (أو العكس لا أتذكر) فأين دور الفيزيكس الخاص بنفيديا إذن
أليس ذلك إيذانا بقضاء الدايركت 11 على ميزة فيزيكس التي تختص بتنفيذ هذه التعليمات على المعالجات الرسومية لنفيديا حصريا

&المجروح&
04-04-2009, 05:26
أخي الكريم كلامك بالأحمر يؤكد كلام الأخ مينا ,أشعر بتناقض الجملة الأخيرة مع ذلك
فبما إن DX11 ستقوم بتحويل التعليمات والحسابات الفيزياية من المعالج الرسومي إلى المعالج الحسابي (أو العكس لا أتذكر) فأين دور الفيزيكس الخاص بنفيديا إذن
أليس ذلك إيذانا بقضاء الدايركت 11 على ميزة فيزيكس التي تختص بتنفيذ هذه التعليمات على المعالجات الرسومية لنفيديا حصريا

ربما ال API الكثيرة التي تسهل الكتابة علي المصممين لتلك الألعاب

الخلف
04-04-2009, 06:31
أختلف معك عزيزي HD5870X2 في نقطة أن استخدام NVIDIA للـ CS يعني نهاية PhysX فشتان بينهما...

كما ذكرت في ردود سابقة، الـ CS ماهو إلا نسخة مصغرة من الواجهات البرمجية للـ GPGPU أي أن الـ CS يمكن اعتباره على أنه MiniCUDA أو MiniStream أو حتى MicroOpenCL ( لكون الأخير غير محدود بالـ GPU كما الواجهات الباقية )، هذا يعني أنه سيساعد على تسهيل إجراء بعض المهمات ولكن ليس كلها ولايمكن للـ CS أن يُستخدم لتصميم محرك فيزيائي شامل وقوي مثل PhysX أو Havok، نعم سيكون محرك فيزيائي مناسب للألعاب ولكن ليس لتطبيقات احترافية أخرى وهذا بالضبط ما تنويه Microsoft، فالأخيرة لاتقصد بالـ CS كواجهة منافسة للـ CUDA والـ Stream وإنما وسيلة سهلة لمطوري الألعاب لتطوير تطبيقاتهم دون الرجوع لوسائل محدودة بنوع البطاقة الرسومية لديك...

أما بخصوص تشغيل العرض، فقد تم تشغيله على بطاقة GTX 280، لاحظ أنه يمكن لجميع البطاقات الحالية من سلسلة DX10 أن تدعم مواصفات DX11 ولكن الدعم ليس كامل فهناك بعض الأمور التي يشترطها الـ DX11 أن تكون متواجدة بدعم عتادي Hardware وليس برمجي Software، مثل وحدة الـ Tessellation حيث يشترط أن تكون هذه وحدة فيزيائية موجودة في المعالج، نعم بطاقات ATi تحتوي هذه الوحدة منذ زمن بعيد ولكن هذه الوحدة ليس هي ذاتها التي يشترطها الـ DX11 حيث المسألة أن MS كانت ستشترط هذه الوحدة مع DX10 وقامت ATi بتصنيعها وضمها حتى مع البطاقات الأقدم كنوع من الاستعداد ( خصوصاً أنها قامت بتصنيعها في معالجات Xbox 360 الرسومية )، ولكن nVIDIA أخبرت MS أنها لن تستطيع الالتزام بالوقت إذا قامت بتضمين هذه الوحدة وستتأخر كثيراً وبالتالي قررت MS إلغاء الـ Tessellation Unit من مواصفات DX10 النهائية، ATi قررت الإبقاء على الوحدة في المعالج الرسومي حتى لا تضطر لتغيير المعالج مرة أخرى كما أنها اعتبرتها كميزة أساسية... مواصفات DX11 تشترط TU ولكن بمواصفات متقدمة أكثر عما كان عليه الاشتراط في DX10 ولهذا وإن كانت الـ TU موجودة فهي لا تلبي كامل متطلبات وشروط الـ DX11 ولهذا فبطاقات ATi ستكون الأقرب لمواصفات DX11 النهائية خصوصاً لكونها ستتضمن كلا من TU بشكل جزئي وتوافق للـ DX10.1... ولكن هذا لا يجعلها متوافقة 100%...

الـ Compute Shader لايشترط وحدات عتادية Hardware خاصة فهو مجرد طبقة من طبقات الـ DirectX 11 يمكنها أن تستفيد من الـ Unified Shaders في القيام بمهام معالجة عامة، وهذا يعني أن الـ Compute Shader سيمكنها العمل على أي معالج رسومي متوافق مع DX10، حتى معالجاتنا الرسومية الحالية سيمكنها أن تشغل الـ Compute Shader...

ما عرضته nVIDIA ليس DX11 كاملاً فلايمكنها ذلك لعدم وجود DX11 Hardware أساساً، ولكن يمكنها عرض أجزاء منه واختارت الـ Compute Shader كمثال، فكل مقاطع الفيديو تعرض أساساً أمثلة على الـ CS وليس تأثيرات بصرية وغيرها...

أبو فطنة
04-04-2009, 08:42
هل تم العرض بهاردوير إنفيديا ؟

هل هذا الهاردوير مصمم على ال 40nm ؟

ملحوظة مهمة : هذا ليس PhysX ......هذا يوضح أن ال PhysX قد انتهى

هذا هو ال Compute Shader وهو المسئول عن ال Physics في ال DX11 وفي هذه الحالة تكون إنفيديا نفسها اعترفت بنهاية ال PhysX ;)

gل ول ول ولولولوه

الخلف ماقصر

Extreme2
04-04-2009, 09:20
تسلم اخوي عزيز :)
وشكرا للأخ الخلف على الاضافة الرائعة ..

trt44
04-04-2009, 13:00
أخي الكريم كلامك بالأحمر يؤكد كلام الأخ مينا ,أشعر بتناقض الجملة الأخيرة مع ذلك
فبما إن DX11 ستقوم بتحويل التعليمات والحسابات الفيزياية من المعالج الرسومي إلى المعالج الحسابي (أو العكس لا أتذكر) فأين دور الفيزيكس الخاص بنفيديا إذن
أليس ذلك إيذانا بقضاء الدايركت 11 على ميزة فيزيكس التي تختص بتنفيذ هذه التعليمات على المعالجات الرسومية لنفيديا حصريا
أخي الكريم إذا كانت خاصية Compute Shader تنافس شيئاً لدى Nvidia فهو Cuda الذي يشكل الواجهة التي يعمل عليها Physx، و حالياً لا ينافس لا cuda و لا غيرها. إقرأ رد الأخ الخلف لتعرف لماذا.
Physx هو محرك فيزيائي مثله مثل أي محرك تعتمده أي لعبة و الأمثلة كثيرة: Euphoria، Havok، CryEngine... إلخ، ميزته هو كونه متوافق مع واجهة Cuda للعمل على GPU
خلاصة: DirectX11 واجهة و ليس محرك فيزيائي، و دعم GPGPU فيه لا يضاهي Cuda أو Stream أو OpenCl
Physx محرك فيزيائي مصمم للعمل على GPU عن طريق واجهة Cuda
أرجو أن تكون قد توضحت لديك الفكرة

HD5870X2
04-04-2009, 13:26
أشكرك أخي الخلف على التوضيح ولو اني أختلف في جزئية صغيرة (ربما هو ليس إختلاف بالمعنى الصحيح)
الDX11 في طور التطوير وربما كانت النتيجة النهائية أفضل من ال CUDA وال STREAM

كما انني لست أعلم كيف يمكن تشغيل ال GTX280 ليعرض DX11 غير أن يكون مجرد Software Simulation

كما أن تساؤلي كان عن ال 40nm وال Hardware DX11 لأننا كما نعلم الإثنان مرتبطان حيث أن الكروت التي ستدعم ال DX11 ستكون مبنية على 40nm وحتى هذه اللحظة إنفيديا لم تصنع ال 40nm

trt44
04-04-2009, 15:40
أشكرك أخي الخلف على التوضيح ولو اني أختلف في جزئية صغيرة (ربما هو ليس إختلاف بالمعنى الصحيح)
الDX11 في طور التطوير وربما كانت النتيجة النهائية أفضل من ال CUDA وال STREAM


Cuda أو Stream جاهزان حالياً كما أن Cuda له محرك فيزيائي يعمل معه بكفاءة و هو Physx، أما Compute Shader فلا نعلم متى يجهز كفايةً لمقارعة التقنيتين كما أن OpenCl أكثر شمولية و جهوزية من Compute Shader و عليه فإن كان هناك من سوف يخرج Physx من ظل Cuda في المستقبل القريب فهو OpenCL و ليس DirectX11


كما انني لست أعلم كيف يمكن تشغيل ال GTX280 ليعرض DX11 غير أن يكون مجرد Software Simulation


كما قال الأخ الخلف Compute Shader يعتبر Layer أو طبقة تعمل على مستوى Software و ليس Hardware و عليه فهي سوف تعمل على DX10 في كروت ATI و Nvidia كما تعمل على على كروت DX11 على خلاف Tesselation unit التي تتطلب دعم في العتاد لتعمل، و بالتالي سوف تعمل على كروت ATI الداعمة ل DX10.1 الداعمة للتقنية كحدٍ أدنى


كما أن تساؤلي كان عن ال 40nm وال Hardware DX11 لأننا كما نعلم الإثنان مرتبطان حيث أن الكروت التي ستدعم ال DX11 ستكون مبنية على 40nm وحتى هذه اللحظة إنفيديا لم تصنع ال 40nm

ليست قاعدة بل هي مجرد أخبار غير رسمية و ربما تفاجئنا ATI أو Nvidia بكروت مصنعة بتقنية 55nm و داعمة ل DX11 في حل حصول مشاكل غير متوقعة مع تقنية تصنيع 40nm

الخلف
04-04-2009, 16:10
أشكرك أخي الخلف على التوضيح ولو اني أختلف في جزئية صغيرة (ربما هو ليس إختلاف بالمعنى الصحيح)
الDX11 في طور التطوير وربما كانت النتيجة النهائية أفضل من ال CUDA وال STREAM

كما انني لست أعلم كيف يمكن تشغيل ال GTX280 ليعرض DX11 غير أن يكون مجرد Software Simulation

كما أن تساؤلي كان عن ال 40nm وال Hardware DX11 لأننا كما نعلم الإثنان مرتبطان حيث أن الكروت التي ستدعم ال DX11 ستكون مبنية على 40nm وحتى هذه اللحظة إنفيديا لم تصنع ال 40nm
العزيز مينا، صرحت MS أن الـ Compute Shader مصمم أساساً لمساعدة مطوريّ الألعاب على تضمين تقنيات حوسبة متطلبة وتثقل كاهل معالج النظام إذا تم استخدامها بكثافة، مثل الأمر ينطبق على الحسابات الفيزيائية وحسابات الذكاء الاصطناعي، ولكن الدعم محدود فقط بكونه داخل الـ Direct 3D فالـ Compute Shader جزء من الـ Direct 3D ولايمكن الوصول إليه دون Direct 3D، كما أن التطبيقات التي يمكن تنفيذها بالـ Compute Shader لن تكون بمثل مرونة وقوة التطبيقات التي يمكن تطبيقها بالـ CUDA أو Stream وأحد الأسباب الرئيسية هو كون الـ Compute Shader جزء من الـ Direct 3D وليس جزءاً خاصاً قائماً بحد ذاته من مكتبة DirectX ( أي مثل Direct 3D و Direct 2D و Direct Sound وغيرها )...

نعم يمكن تطوير محركات فيزيائية تستخدم الـ Compute Shader ويمكن تطوير محركات ذكاء اصطناعي تستخدمه أيضاً ولكنها ستكون محدودة فقط باللعبة ولن تكون بمثل مرونة PhysX أو Havok، ونعم قد تكون المسألة لبعض المطورين مناسبة حيث سيغنيهم عن رسوم ترخيص PhysX أو Havok ولكن لا ننسى أن الـ Compute Shader سيمنعهم من تطبيق اللعبة على منصات أخرى لأنهم سيحتاجون إلى إعادة برمجة محركهم الفيزيائي ليعمل على منصات أخرى ( أو أنظمة تشغيل أخرى )، ولن يمكنه العمل إلا ببطاقات من فئة DX10 وأعلى...


قد تكون لاحظت أنني قمت بتغيير عنوان الموضوع ( مع الاعتذار للأخ عزيز صاحب الموضوع ) وذلك ليوضح المسألة بشكل أدق، فما عرضته nVIDIA لم يكن DirectX 11 لسبب بسيط هو أنه لايوجد إلى الآن عتاد DX11 والذي لم ينتهِ بعد، ما عرضته هو فقط جزء من الـ DirectX 11 وهو Compute Shader وهو ما يمكن عمله ويمكن لأي شركة تمتلك مسرع رسومي من عيار DX10 أن تقوم بعمله، لأن الـ Compute Shader يحتاج فقط لـ Unified Shader لكي يعمل وهذا الأخير متوافر في جميع مسرّعات DX10...

لاحظ أن الـ DX11 يتضمن عدة تقنيات، وهو متوافق عكسياً مع عتاد DX10، بمعنى أن أي تطبيق DX11 سيمكنه أن يعمل على عتاد DX10 ولكن هناك بعض المزايا خاصة بالـ DX11 لن تعمل، فمثلاً لايمكن لـ nVIDIA أن تعرض الـ Tessellation لأنه لايوجد لديها عتاد Tessellation، وسيمكن لـ AMD أن تعرض الأخير ولكن بشكل جزئي لأن الـ Tesselation Unit التي يطلبها DX11 تتضمن مزايا أكثر من الموجودة في بطاقات AMD وبالتالي سيمكن لها أن تطرح فقط جزء من التقنية ولكن ليست كاملة...

مايكروسوفت مكّنت المطورين من تطبيق جزء من قدرات Compute Shader باستخدام عتاد DX10 Hardware، وهذا ما فعلته nVIDIA

بالتالي ماذا كان في ذلك الـ Demo ؟؟

نعم التطبيق يستخدم واجهة DX11، ولكن بسبب عدم وجود دعم عتادي كافي فلم يقم باستخدام كل المزايا الجديدة وإنما فقط جزء منها، كل ما قامت فعله هو باستخدام الـ Compute Shader مع واجهات رسومية DX10، فجميع الفيديوات السابقة يمكن تطبيقها تماماً باستخدام DX10 بشكل رسومي، كل ما يحتاج زيادة هو حسابات فيزيائية وحسابات أخرى يمكن إجراءها عن طريق آخر مثل PhysX أو Havok... ما قامت به nVIDIA هو أنها فقط عرضت جزء من الـ Compute Shader لأن هذا الجزء من DX11 يمكنه العمل بعتاد DX10، أما الجزء الرسومي فهو مجرد DX10...

ولأن ما عرضته هو فقط جزء الـ Compute Shader من الـ DX11 والذي يمكنه العمل بعتاد DX10 ، فلا داعي لوجود عتاد DX11 وبالتالي لاداعي لوجود DX 11 Hardware ولا 40نانو من nVIDIA

أساساً لايمكن لـ nVIDIA ولا AMD أن تعرض الآن تطبيقات DX11 كاملة بجميع عناصرها الرسومية وغير الرسومية لأن مواصفات DX11 إلى الآن لم تكتمل وبالتالي لم تنتهِ الشركات أساساً من تطوير عتاد DX11، يفترض حسب المخطط الزمني المعتاد لهذه البطاقات أن تكون الشرائح السيليكونية في طور الإنتاج والاختبار في الفترة الراهنة ولكنها بعيدة عن العمل كبطاقة إلا بعد شهرين أو ثلاثة على الأقل، ثم تظل فترة 3 أشهر حتى يتم قطعها وتغليفها واختبارها وتوزيعها للشركاء ليبدأو ضمها في البطاقات، ويجهزوها ويرسلوها لقنوات البيع منتظرين فقط الإعلان الرسمي للتوافر...
الوقت العروف حالياً وهو غير رسمي للإطلاق هو في الربع الأخير من هذا العام...

إن كنت أنت مطوّراً ويمكنك تصميم تطبيقاتك بنفسك، فيمكنك اليوم وأقولها اليوم، وبالأحرى كان يمكنك ذلك حتى قبل 5 أشهر أن تقوم بتطوير بعض تطبيقات Compute Shader، فشركة MS قامت بطرح نسخة العرض التقنية الأولية من واجهة DX11 في شهر نوفمبر الماضي مع حزمة تطوير DirectX ( إصدار نوفمبر 2008 من DirectX SDK ) ويمكن لأي مطوّر مع المهارات الكافية ومع عتاد DX10 أن يطلق برنامجاً يستفيد من Compute Shader، لأنه كما ذكرت هذا الأخير لايشترط DX11 hardware وإنما يشترط DX10 Hardware على الأقل...

يمكنك الاطلاع على بعض المعلومات من موقع مايكروسوفت نفسها حول هذا الأمر
https://www.microsoft.com/downloads/details.aspx?FamilyID=5493f76a-6d37-478d-ba17-28b1cca4865a&DisplayLang=en

وتجد ملاحظة حول إمكانية تشغيل جزء من الـ Compute Shader على DX10 Hardware كما تجد هنا




Compute Shader
The Compute Shader is an additional stage independent of the Direct3D 11 pipeline that enables general purpose computing on the GPU. In addition to all shader features provided by the unified shader core, the Compute Shader also supports scattered reads and writes to resources through Unordered Access Views, a shared memory pool within a group of executing threads, synchronization primitives, atomic operators, and many other advanced data-parallel features. A variant of the Direct3D 11 Compute Shader has been enabled in this release that can operate on Direct3D 10-class hardware. It is therefore possible to developing Compute Shaders on actual hardware, but an updated driver is required. The full functionality of the Direct3D 11 Compute Shader will is intended for support of Direct3D 11-class hardware, so in order to evaluate the full functionality you will need to use the Reference Rasterizer until such hardware is available. For a demo of the Compute Shader in action, check out the HDRToneMappingCS11 sample available through the Sample Browser.

شلاع العتر
04-04-2009, 16:20
كما أن تساؤلي كان عن ال 40nm وال Hardware DX11 لأننا كما نعلم الإثنان مرتبطان حيث أن الكروت التي ستدعم ال DX11 ستكون مبنية على 40nm وحتى هذه اللحظة إنفيديا لم تصنع ال 40nm

هل ال DX11 وتقنية 40 نانو مرتبطان ؟

الاجابة لا ... والدليل على عدم إرتباط 40 نانو ب DX11 هو البطاقات المبنية على المعالج rv740 ...

اما عن إرتباط ال DX11 ب 40 نانو فلا شيء مؤكد حتى الان وما تزال هناك مشاكل مع شركة TSMC في التعامل مع المعالجات المصنعة بتقنية 40 نانو بشكل مثالي ... وهذا يعيدنا الى السؤال الذي طرح كثيرا في اروقة الانترنت ...
هل ستتعاون نفيديا مع شركة TFC لانتاج المعالجات 40 نانو ؟؟؟ وخاصة ان الشركة تؤكد جاهزيتها لذلك ...
كما انها تؤكد انها في وقت قريب ستكون جاهزة لتقنية 32 نانو وذلك قبل TSMC ... فما الخيارات المطروحة امام نفيديا ...
هذا الامر ادى الى ان تقوم نفيديا بالاتصال بشركة TFC للاستفسار والاطلاع مما يبشر بإمكانية التعاون ...

الخلف
04-04-2009, 17:37
العزيز شلاع، المسألة أن nVIDIA وضحت بشكل غير رسمي أنها ستؤجل الانتقال إلى 40نانو إلى منتجات DX11 بسبب عدم جدوى الانتقال إليه في هذا الوقت...
محللين تقنيين وضحوا أن المسألة لا تتعلق بعدم الجدوى خصوصاً في حالة nVIDIA بسبب سياستها بحجم النواة الكبيرة فهي بحاجة ماسة أكثر لتقنية تصنيع أدق، ولكن حسبما تقول أن AMD شكلت عليها ضغوطاً جعلتها تستعجل طرح بطاقات لم تكن في المخطط، وعملية الانتقال من تقنية تصنيع لأخرى تحتاج لوقت حتى يتم تنقيح التصميم بما يتناسب مع تقنية التصنيع الجديدة، وهي تأخرت في الانتقال إلى 55 نانو ثم أتى ضغط AMD بإجبارها على تحويل اتجاه مهندسيها للعمل على بطاقات جديدة لم تكن في الحسبان ( مثل GTX 260 Core 216 و GTX 275 ) لهذا فلايوجد لدى nVIDIA الوقت الكافي للانتقال إلى 40 نانو مع هذا الجيل إذا أرادت الالتزام بوقت طرح جيل DX11...

بالعربية إذا أرادت nVIDIA طرح بطاقات الجيل الحالي بتقنيات 40 نانو فسيتأجل طرح منتجات DX11...

لتعرف مدى المأزق الذي وضعت AMD فيه nVIDIA يمكنك فقط طرح تساؤل، ماذا قدّمت nVIDIA من جيل نواة GT200 للسوق المتوسط والمنخفض ؟
الجواب : لاشيء، فلم يسعفها الوقت أن تقوم بإعادة تصميم نسخ مصغرة من نواة GT200 لتكون مناسبة للسوق المتوسط والمنخفض، ولهذا اضطرت إلى القيام بلعبة إعادة تسمية منتجات الجيل التاسع وطرحها على أساس الجيل الجديد لأنها إن قامت بإعادة تطوير نواة GT200 لكي تتناسب مع السوق المتوسط والمنخفض فإنها ستأخذ وقتاً طويلاً يجعلها تضطر لتأجيل طرح DX11...

تلاحظ أن جميع المعالجات الرسوميّة من nVIDIA التي طرحتها ومستمدة من نواة GT200 ماهي إلا نسخ بها بعض الأجزاء المتعطلة فقامت الشركة بإعادة طرحها كمنتجات أقل مستوى ( مثل GTX 260 و GTX 260 c216 و GTX 275 ) التعديلات الوحيدة الجوهرية التي قامت بها الشركة على نواة nVIDIA هي التحويل من 65 نانو إلى 55 نانو !! عدا ذلك لايوجد شيء آخر جوهري...

alocom
04-04-2009, 19:11
العزيز شلاع، المسألة أن nVIDIA وضحت بشكل غير رسمي أنها ستؤجل الانتقال إلى 40نانو إلى منتجات DX11 بسبب عدم جدوى الانتقال إليه في هذا الوقت...
محللين تقنيين وضحوا أن المسألة لا تتعلق بعدم الجدوى خصوصاً في حالة nVIDIA بسبب سياستها بحجم النواة الكبيرة فهي بحاجة ماسة أكثر لتقنية تصنيع أدق، ولكن حسبما تقول أن AMD شكلت عليها ضغوطاً جعلتها تستعجل طرح بطاقات لم تكن في المخطط، وعملية الانتقال من تقنية تصنيع لأخرى تحتاج لوقت حتى يتم تنقيح التصميم بما يتناسب مع تقنية التصنيع الجديدة، وهي تأخرت في الانتقال إلى 55 نانو ثم أتى ضغط AMD بإجبارها على تحويل اتجاه مهندسيها للعمل على بطاقات جديدة لم تكن في الحسبان ( مثل GTX 260 Core 216 و GTX 275 ) لهذا فلايوجد لدى nVIDIA الوقت الكافي للانتقال إلى 40 نانو مع هذا الجيل إذا أرادت الالتزام بوقت طرح جيل DX11...

بالعربية إذا أرادت nVIDIA طرح بطاقات الجيل الحالي بتقنيات 40 نانو فسيتأجل طرح منتجات DX11...

لتعرف مدى المأزق الذي وضعت AMD فيه nVIDIA يمكنك فقط طرح تساؤل، ماذا قدّمت nVIDIA من جيل نواة GT200 للسوق المتوسط والمنخفض ؟
الجواب : لاشيء، فلم يسعفها الوقت أن تقوم بإعادة تصميم نسخ مصغرة من نواة GT200 لتكون مناسبة للسوق المتوسط والمنخفض، ولهذا اضطرت إلى القيام بلعبة إعادة تسمية منتجات الجيل التاسع وطرحها على أساس الجيل الجديد لأنها إن قامت بإعادة تطوير نواة GT200 لكي تتناسب مع السوق المتوسط والمنخفض فإنها ستأخذ وقتاً طويلاً يجعلها تضطر لتأجيل طرح DX11...

تلاحظ أن جميع المعالجات الرسوميّة من nVIDIA التي طرحتها ومستمدة من نواة GT200 ماهي إلا نسخ بها بعض الأجزاء المتعطلة فقامت الشركة بإعادة طرحها كمنتجات أقل مستوى ( مثل GTX 260 و GTX 260 c216 و GTX 275 ) التعديلات الوحيدة الجوهرية التي قامت بها الشركة على نواة nVIDIA هي التحويل من 65 نانو إلى 55 نانو !! عدا ذلك لايوجد شيء آخر جوهري...


كلام جميل وسبق أن ذكرته في الموضوع التالي : (وقد نقلت ردك هذا هناك بعد إذنك :) )
https://arabhardware.net/forum/showthread.php?t=114199&page=3

alshamsi330033
04-04-2009, 19:41
سلام عليكم

هذا العرض من انفيديا ليس موجه للفزكس


هذا العرض وجه للتاكيد ان انفيديا سوف تقوم بدعم dx11

ف المقصود هو ان كرت gts 280 استطاع تشيغل dx11 فاكيف بالكروت التي تدعم dx11 التي سوف تطرح من nvidia لدعم dx11

انا لست متاكد من قصد انفيديا ولاكن ان حصل ذالك فسوف تكون ضربة قاتله ل ati

هل تعني انفيديا ان كروتها التي تدعم dx10 سوف تكون قادره على تشغيل dx11 بدون مشاكل لان كروتها تدعم خاصية الفزكس اصلا


انا لا ادري ولاكن شكلهم يقصدوا هذا الشئ


وشكرا

الخلف
04-04-2009, 20:01
كلام جميل وسبق أن ذكرته في الموضوع التالي : (وقد نقلت ردك هذا هناك بعد إذنك :) )
https://arabhardware.net/forum/showthread.php?t=114199&page=3
بالضبط، العديد من الناس والمتابعين التقنيين يرون هذا الأمر عزيزي alocom

الخلف
04-04-2009, 20:08
سلام عليكم

هذا العرض من انفيديا ليس موجه للفزكس


هذا العرض وجه للتاكيد ان انفيديا سوف تقوم بدعم dx11

ف المقصود هو ان كرت gts 280 استطاع تشيغل dx11 فاكيف بالكروت التي تدعم dx11 التي سوف تطرح من nvidia لدعم dx11

انا لست متاكد من قصد انفيديا ولاكن ان حصل ذالك فسوف تكون ضربة قاتله ل ati

هل تعني انفيديا ان كروتها التي تدعم dx10 سوف تكون قادره على تشغيل dx11 بدون مشاكل لان كروتها تدعم خاصية الفزكس اصلا


انا لا ادري ولاكن شكلهم يقصدوا هذا الشئ


وشكرا
لا علاقة هذا لهذا، ويمكنك قراءة ردودي السابقة لتحصل على المعلومة بدقة، لو أتينا من منطلق مدى التوافق والقرب من مواصفات DX11 فمسرعات Radeon HD هي الأقرب لمواصفات DX11 من نظيرتها nVIDIA سواء من ناحية الـ Tessellation أو من ناحية الـ AA أو من ناحية الـ DX10.1...

للمعلومية فقط، يشترط في العتاد الداعم للـ DX11 بشكل كامل أن يكون متوافقاً تماماً مع DX10.1 و DX10 لأن الـ DX11 يتضمن كل التحسينات التي قدمها الـ DX10.1 فوق الـ DX10...

فأحد أسباب nVIDIA لم ولن تدعم DX10.1 بشكل مرحلي ( بمعنى إطلاق مسرع رسومي يدعم DX10.1 قبل إطلاق DX11 ) هو في طريقة تطبيق تأثير الـ AA فمسرعات nVIDIA تطبق التأثير بطريقة مختلفة عما تقوم به مسرعات ATi، والحقيقة أن ATi قامت بتنقيح آلية الـ AA وتأخرت فيها وهذا ما جعلها تتأخر في تقنية AA من ناحية الأداء في مسرعات ما قبل HD 4000، حيث كانت تقوم بإجراء تحسينات على عمل الـ AA لجعله الأفضل، بينما nVIDIA لم تأل جهداً في ذلك وطرحت المعالج، والنتيجة أن ATi استطاعت أن تنتج مسرعات DX10.1 بشكل سريع بينما nVIDIA لم تستطع، بل وهي مضطرة لإجراء نفس التعديلات التي قامت بها ATi قبل عدة أشهر في طريقة معالجة الـ AA حتى تجعل مسرعاتها متوافقة مع DX11