احتمال TensorFlow
با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
TensorFlow Probability کتابخانه ای برای استدلال احتمالی و تجزیه و تحلیل آماری در TensorFlow است. به عنوان بخشی از اکوسیستم TensorFlow، TensorFlow Probability یکپارچهسازی روشهای احتمالی با شبکههای عمیق، استنتاج مبتنی بر گرادیان با استفاده از تمایز خودکار، و مقیاسپذیری برای مجموعههای داده و مدلهای بزرگ با شتاب سختافزاری (GPU) و محاسبات توزیعشده را فراهم میکند.
برای شروع کار با TensorFlow Probability، راهنمای نصب را ببینید و آموزش های نوت بوک پایتون را مشاهده کنید.
اجزاء
ابزارهای یادگیری ماشین احتمالی ما به صورت زیر ساختار یافته اند:
لایه 0: TensorFlow
عملیات عددی - به ویژه کلاس LinearOperator
- پیاده سازی های بدون ماتریس را فعال می کند که می توانند از یک ساختار خاص (مورب، رتبه پایین و غیره) برای محاسبات کارآمد سوء استفاده کنند. این توسط تیم TensorFlow Probability ساخته و نگهداری می شود و بخشی از tf.linalg
در هسته TensorFlow است.
لایه 1: بلوک های ساختمانی آماری
لایه 2: ساختمان مدل
- توزیع های مشترک (به عنوان مثال،
tfp.distributions.JointDistributionSequential
): توزیع های مشترک بر روی یک یا چند توزیع احتمالاً وابسته به هم. برای آشنایی با مدل سازی با JointDistribution
s TFP، این colab را بررسی کنید - لایههای احتمالی (
tfp.layers
): لایههای شبکه عصبی با عدم قطعیت نسبت به عملکردهایی که نشان میدهند، لایههای TensorFlow را گسترش میدهند.
لایه 3: استنتاج احتمالی
- زنجیره مارکوف مونت کارلو (
tfp.mcmc
): الگوریتم هایی برای تقریب انتگرال ها از طریق نمونه گیری. شامل مونت کارلو Hamiltonian ، Metropolis-Hastings با پیادهروی تصادفی، و توانایی ساخت هستههای انتقال سفارشی است. - استنتاج متغیر (
tfp.vi
): الگوریتم هایی برای تقریب انتگرال ها از طریق بهینه سازی. - بهینه سازها (
tfp.optimizer
): روش های بهینه سازی تصادفی، گسترش بهینه سازهای TensorFlow. شامل دینامیک لانگوین گرادیان تصادفی است . - مونت کارلو (
tfp.monte_carlo
): ابزارهایی برای محاسبه انتظارات مونت کارلو.
TensorFlow Probability در حال توسعه فعال است و ممکن است رابط ها تغییر کنند.
مثال ها
علاوه بر آموزشهای نوتبوک پایتون که در ناوبری فهرست شدهاند، چند نمونه اسکریپت موجود است:
مشکلات را گزارش کنید
با استفاده از ردیاب مشکل TensorFlow Probability اشکالات یا درخواست های ویژگی را گزارش کنید.
جز در مواردی که غیر از این ذکر شده باشد،محتوای این صفحه تحت مجوز Creative Commons Attribution 4.0 License است. نمونه کدها نیز دارای مجوز Apache 2.0 License است. برای اطلاع از جزئیات، به خطمشیهای سایت Google Developers مراجعه کنید. جاوا علامت تجاری ثبتشده Oracle و/یا شرکتهای وابسته به آن است.
تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# TensorFlow Probability\n\n\u003cbr /\u003e\n\nTensorFlow Probability is a library for probabilistic reasoning and statistical\nanalysis in TensorFlow. As part of the TensorFlow ecosystem, TensorFlow\nProbability provides integration of probabilistic methods with deep networks,\ngradient-based inference using automatic differentiation, and scalability to\nlarge datasets and models with hardware acceleration (GPUs) and distributed\ncomputation.\n\nTo get started with TensorFlow Probability, see the\n[install guide](./install) and view the\n[Python notebook tutorials](https://github.com/tensorflow/probability/blob/main/tensorflow_probability/examples/jupyter_notebooks/).\n\nComponents\n----------\n\nOur probabilistic machine learning tools are structured as follows:\n\n### Layer 0: TensorFlow\n\n*Numerical operations* ---in particular, the `LinearOperator`\nclass---enables matrix-free implementations that can exploit a particular structure\n(diagonal, low-rank, etc.) for efficient computation. It is built and maintained\nby the TensorFlow Probability team and is part of\n[`tf.linalg`](https://github.com/tensorflow/tensorflow/tree/master/tensorflow/python/ops/linalg)\nin core TensorFlow.\n\n### Layer 1: Statistical Building Blocks\n\n- *Distributions* ([`tfp.distributions`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/distributions)): A large collection of probability distributions and related statistics with batch and [broadcasting](https://docs.scipy.org/doc/numpy-1.14.0/user/basics.broadcasting.html) semantics.\n- *Bijectors* ([`tfp.bijectors`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/bijectors)): Reversible and composable transformations of random variables. Bijectors provide a rich class of transformed distributions, from classical examples like the [log-normal distribution](https://en.wikipedia.org/wiki/Log-normal_distribution) to sophisticated deep learning models such as [masked autoregressive flows](https://arxiv.org/abs/1705.07057).\n\n### Layer 2: Model Building\n\n- Joint Distributions (e.g., [`tfp.distributions.JointDistributionSequential`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/distributions/joint_distribution_sequential.py)): Joint distributions over one or more possibly-interdependent distributions. For an introduction to modeling with TFP's `JointDistribution`s, check out [this colab](https://github.com/tensorflow/probability/blob/main/tensorflow_probability/examples/jupyter_notebooks/Modeling_with_JointDistribution.ipynb)\n- *Probabilistic layers* ([`tfp.layers`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/layers)): Neural network layers with uncertainty over the functions they represent, extending TensorFlow layers.\n\n### Layer 3: Probabilistic Inference\n\n- *Markov chain Monte Carlo* ([`tfp.mcmc`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/mcmc)): Algorithms for approximating integrals via sampling. Includes [Hamiltonian Monte Carlo](https://en.wikipedia.org/wiki/Hamiltonian_Monte_Carlo), random-walk Metropolis-Hastings, and the ability to build custom transition kernels.\n- *Variational Inference* ([`tfp.vi`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/vi)): Algorithms for approximating integrals through optimization.\n- *Optimizers* ([`tfp.optimizer`](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/python/optimizer)): Stochastic optimization methods, extending TensorFlow Optimizers. Includes [Stochastic Gradient Langevin Dynamics](http://www.icml-2011.org/papers/398_icmlpaper.pdf).\n- *Monte Carlo* ([`tfp.monte_carlo`](https://github.com/tensorflow/probability/blob/main/tensorflow_probability/python/monte_carlo)): Tools for computing Monte Carlo expectations.\n\nTensorFlow Probability is under active development and interfaces may change.\n\nExamples\n--------\n\nIn addition to the\n[Python notebook tutorials](https://github.com/tensorflow/probability/blob/main/tensorflow_probability/examples/jupyter_notebooks/)\nlisted in the navigation, there are some example scripts available:\n\n- [Variational Autoencoders](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/examples/vae.py) ---Representation learning with a latent code and variational inference.\n- [Vector-Quantized Autoencoder](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/examples/vq_vae.py) ---Discrete representation learning with vector quantization.\n- [Bayesian Neural Networks](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/examples/bayesian_neural_network.py) ---Neural networks with uncertainty over their weights.\n- [Bayesian Logistic Regression](https://github.com/tensorflow/probability/tree/main/tensorflow_probability/examples/logistic_regression.py) ---Bayesian inference for binary classification.\n\nReport issues\n-------------\n\nReport bugs or feature requests using the\n[TensorFlow Probability issue tracker](https://github.com/tensorflow/probability/issues)."]]