په ټینسر فلو کې لیواله اجرا کول یو موډ دی چې د ماشین زده کړې ماډلونو ډیر هوښیار او متقابل پرمختګ ته اجازه ورکوي. دا په ځانګړي ډول د ماډل پراختیا د پروټوټایپ او ډیبګ کولو مرحلو په جریان کې ګټور دی. په TensorFlow کې، لیواله اجرا کول د کانکریټ ارزښتونو د بیرته راستنیدو لپاره سمدستي د عملیاتو اجرا کولو یوه لاره ده، لکه څنګه چې د دودیز ګراف پر بنسټ اجرا کولو سره مخالف دي چیرې چې عملیات د محاسبې ګراف کې اضافه کیږي او وروسته اجرا کیږي.
لیواله اجرا کول د TensorFlow توزیع شوي فعالیت مخه نه نیسي. TensorFlow ډیزاین شوی ترڅو په ډیری وسیلو او سرورونو کې د توزیع شوي کمپیوټري مالتړ وکړي، او دا فعالیت لاهم شتون لري کله چې د لیواله اجرا کولو کارولو سره. په حقیقت کې، د TensorFlow د توزیع ستراتیژۍ په بې ساري ډول د ډیری وسیلو یا سرورونو په اوږدو کې د ماډلونو روزلو لپاره د لیوالتیا اجرا کولو سره مدغم کیدی شي.
کله چې د توزیع شوي TensorFlow سره په لیوالتیا حالت کې کار کوئ، تاسو کولی شئ ستراتیژیو لکه `tf.distribute.MirroredStrategy` وکاروئ ترڅو په یو ماشین کې ډیری GPUs په اغیزمنه توګه وکاروئ یا په ډیری ماشینونو کې ماډلونو روزلو لپاره `tf.distribute.MultiWorkerMirroredStrategy`. دا د توزیع ستراتیژۍ د توزیع شوي کمپیوټر پیچلتیاوې اداره کوي، لکه د وسیلو ترمنځ اړیکه، د تدریجي ترکیب، او د پایلو راټولول.
د مثال په توګه، که تاسو داسې ماډل لرئ چې تاسو غواړئ د لیواله اجرا کولو په کارولو سره په ډیری GPUs کې روزنه ورکړئ، تاسو کولی شئ د `MirroredStrategy` څیز جوړ کړئ او بیا د دې ستراتیژۍ په چوکاټ کې خپل د روزنې لوپ چل کړئ. دا به په اوتومات ډول محاسبه په موجود GPUs کې توزیع کړي او د ماډل پیرامیټرو تازه کولو لپاره ګریډینټونه راټول کړي.
python import tensorflow as tf strategy = tf.distribute.MirroredStrategy() with strategy.scope(): # Define and compile your model model = tf.keras.Sequential([...]) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) # Train your model model.fit(train_dataset, epochs=5)
په دې مثال کې، `Mirrored Strategy` د روزنې لپاره په څو GPUs کې ماډل ویشلو لپاره کارول کیږي. د `strategy.scope()` د شرایطو مدیر دا یقیني کوي چې ماډل په هر GPU کې نقل شوی، او د ماډل پیرامیټرو تازه کولو دمخه د ګریډینټ راټول شوي.
په TensorFlow کې لیواله اجرا کول د چوکاټ ویشل شوي فعالیت مخه نه نیسي. پرځای یې ، دا د ماشین زده کړې ماډلونو رامینځته کولو خورا متقابل او رواني لاره چمتو کوي پداسې حال کې چې لاهم په ډیری وسیلو یا سرورونو کې د اغیزمن توزیع شوي روزنې ته اجازه ورکوي.
په اړه نورې وروستۍ پوښتنې او ځوابونه د ماشین زده کړې کې پرمختګ:
- د ماشین زده کړې کې د لوی ډیټاسیټونو سره کار کولو محدودیتونه څه دي؟
- ایا د ماشین زده کړه یو څه ډیالوژیکي مرسته کولی شي؟
- د TensorFlow د لوبې ډګر څه شی دی؟
- ایا د ګوګل کلاوډ حلونه د لوی ډیټا سره د ML ماډل خورا مؤثره روزنې لپاره د ذخیره کولو څخه کمپیوټري کولو لپاره کارول کیدی شي؟
- ایا د ګوګل کلاوډ ماشین زده کړې انجن (CMLE) د ماډل روزنې پای ته رسیدو وروسته د اتوماتیک سرچینو استملاک او ترتیب او د سرچینو بندول اداره کوي؟
- ایا دا ممکنه ده چې د ماشین زده کړې ماډلونه په خپل سري ډول لوی ډیټا سیټونو کې پرته له کوم خنډ سره وروزل شي؟
- کله چې CMLE کاروئ، ایا د نسخې رامینځته کول د صادر شوي ماډل سرچینې مشخص کولو ته اړتیا لري؟
- ایا CMLE کولی شي د ګوګل کلاوډ ذخیره ډیټا څخه لوستل شي او د تحلیل لپاره ټاکل شوي روزل شوي ماډل وکاروئ؟
- ایا Tensorflow د ژور عصبي شبکو (DNNs) روزنې او تحلیل لپاره کارول کیدی شي؟
- د ګریډینټ بوسټینګ الګوریتم څه شی دی؟
د ماشین زده کړې پرمختګ کې نورې پوښتنې او ځوابونه وګورئ