Artwork

المحتوى المقدم من HackerNoon. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة HackerNoon أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !

Instance-Aware Group Quantization for Vision Transformers

7:45
 
مشاركة
 

Manage episode 520119224 series 3474385
المحتوى المقدم من HackerNoon. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة HackerNoon أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

This story was originally published on HackerNoon at: https://hackernoon.com/instance-aware-group-quantization-for-vision-transformers.
A new PTQ method, IGQ-ViT, uses dynamic instance-aware grouping to quantize Vision Transformers efficiently without major accuracy loss.
Check more stories related to tech-stories at: https://hackernoon.com/c/tech-stories. You can also check exclusive content about #computer-vision-models, #vision-transformers, #post-training-quantization, #model-compression, #instance-aware-ai, #neural-network-efficiency, #low-bit-neural-networks, #igq-vit, and more.
This story was written by: @instancing. Learn more about this writer by checking @instancing's about page, and for more stories, please visit hackernoon.com.
Post-training quantization works well for CNNs but breaks down with Vision Transformers due to highly variable activation distributions. IGQ-ViT solves this by dynamically grouping channels per input instance so each group shares similar statistics, then quantizing them with shared parameters. The method also extends to softmax attention and includes a group-allocation strategy under BOP constraints. Across classification, detection, and segmentation tasks, IGQ-ViT delivers state-of-the-art quantization results for ViTs at low bit-widths without costly retraining.

  continue reading

376 حلقات

Artwork
iconمشاركة
 
Manage episode 520119224 series 3474385
المحتوى المقدم من HackerNoon. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة HackerNoon أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

This story was originally published on HackerNoon at: https://hackernoon.com/instance-aware-group-quantization-for-vision-transformers.
A new PTQ method, IGQ-ViT, uses dynamic instance-aware grouping to quantize Vision Transformers efficiently without major accuracy loss.
Check more stories related to tech-stories at: https://hackernoon.com/c/tech-stories. You can also check exclusive content about #computer-vision-models, #vision-transformers, #post-training-quantization, #model-compression, #instance-aware-ai, #neural-network-efficiency, #low-bit-neural-networks, #igq-vit, and more.
This story was written by: @instancing. Learn more about this writer by checking @instancing's about page, and for more stories, please visit hackernoon.com.
Post-training quantization works well for CNNs but breaks down with Vision Transformers due to highly variable activation distributions. IGQ-ViT solves this by dynamically grouping channels per input instance so each group shares similar statistics, then quantizing them with shared parameters. The method also extends to softmax attention and includes a group-allocation strategy under BOP constraints. Across classification, detection, and segmentation tasks, IGQ-ViT delivers state-of-the-art quantization results for ViTs at low bit-widths without costly retraining.

  continue reading

376 حلقات

All episodes

×
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

دليل مرجعي سريع

حقوق الطبع والنشر 2025 | سياسة الخصوصية | شروط الخدمة | | حقوق النشر
استمع إلى هذا العرض أثناء الاستكشاف
تشغيل