古い15インチMacBook Proを活用してローカルLLMを試す
15インチMacBook Proの16GBメモリを活用して、ローカルでLLMを試したいと考えている。macOSからLinuxディストリビューションに切り替え、軽量でデベロッパーやLLM向けに最適なものを探している。また、eGPUの活用も検討しており、モデルの選定や量子化の度合い、実際の動作状況などについて知りたい。
Like
Save
Cached
Comments
No comments yet
Be the first to comment