跳到主要内容
Ctrl+K
通过 Anyscale 试用 Ray 可获得 $100 — 立即开始。

网站导航

  • 入门

  • 用例

  • 示例库

  • 库

    • Ray Core扩展通用 Python 应用

    • Ray Data扩展数据摄取和预处理

    • Ray Train扩展机器学习训练

    • Ray Tune扩展超参数调优

    • Ray Serve扩展模型服务

    • Ray RLlib扩展强化学习

  • 文档

  • 资源

    • 讨论论坛解答你的 Ray 问题

    • 培训实践学习

    • 博客更新、最佳实践、用户故事

    • 活动网络研讨会、线下聚会、办公时间

    • 成功案例实际工作负载示例

    • 生态系统与 Ray 集成的库

    • 社区联系我们

试用 Ray 可获 $100

网站导航

  • 入门

  • 用例

  • 示例库

  • 库

    • Ray Core扩展通用 Python 应用

    • Ray Data扩展数据摄取和预处理

    • Ray Train扩展机器学习训练

    • Ray Tune扩展超参数调优

    • Ray Serve扩展模型服务

    • Ray RLlib扩展强化学习

  • 文档

  • 资源

    • 讨论论坛解答你的 Ray 问题

    • 培训实践学习

    • 博客更新、最佳实践、用户故事

    • 活动网络研讨会、线下聚会、办公时间

    • 成功案例实际工作负载示例

    • 生态系统与 Ray 集成的库

    • 社区联系我们

试用 Ray 可获 $100
  • 概览
  • 入门
  • 安装
  • 用例
    • 用于 ML 基础设施的 Ray
  • 示例库
  • 生态系统
  • Ray Core
    • 关键概念
    • 用户指南
      • 任务
        • 嵌套远程函数
        • 动态生成器
      • Actor
        • 命名 Actor
        • 终止 Actor
        • AsyncIO / Actor 并发
        • 使用并发组限制每个方法的并发
        • 工具类
        • 带外通信
        • Actor 任务执行顺序
      • 对象
        • 序列化
        • 对象溢出
      • 环境依赖项
      • 调度
        • 资源
        • 加速器支持
        • Placement Group
        • 内存管理
        • 内存不足预防
      • 容错
        • 任务容错
        • Actor 容错
        • 对象容错
        • 节点容错
        • GCS 容错
      • 设计模式与反模式
        • 模式:使用嵌套任务实现嵌套并行
        • 模式:使用生成器减少堆内存使用
        • 模式:使用 ray.wait 限制待处理任务数量
        • 模式:使用资源限制并发运行任务数量
        • 模式:使用 asyncio 并发运行 Actor 方法
        • 模式:使用 Actor 同步其他任务和 Actor
        • 模式:使用 Supervisor Actor 管理 Actor 树
        • 模式:使用管道化提高吞吐量
        • 反模式:从任务返回 ray.put() ObjectRefs 损害性能和容错
        • 反模式:在循环中调用 ray.get 损害并行性
        • 反模式:不必要地调用 ray.get 损害性能
        • 反模式:使用 ray.get 按提交顺序处理结果会增加运行时间
        • 反模式:使用 ray.get 一次获取太多对象会导致失败
        • 反模式:任务粒度过细导致的过度并行损害加速比
        • 反模式:重复定义相同的远程函数或类损害性能
        • 反模式:重复按值传递相同的较大参数损害性能
        • 反模式:闭包捕获大对象损害性能
        • 反模式:使用全局变量在任务和 Actor 之间共享状态
        • 反模式:带外序列化 ray.ObjectRef
        • 反模式:在应用代码中分叉新进程
      • Ray 编译图 (Beta)
        • 快速入门
        • 性能分析
        • 实验性:通信与计算重叠
        • 故障排除
        • 编译图 API
      • 高级主题
        • 初次使用者的提示
        • 启动 Ray
        • Ray 生成器
        • 使用命名空间
        • 跨语言编程
        • 使用 Jupyter Notebooks 和 JupyterLab
        • 使用 Ray DAG API 构建惰性计算图
        • 杂项主题
        • 在 runtime_env 中认证远程 URI
        • 用户生成进程的生命周期
    • 示例
      • 使用 Ray Core 进行简单的时间序列 AutoML
      • 使用 Ray Core 进行批量预测
      • Ray Core 示例入门
      • 使用 Ray 处理高度并行任务
      • 使用 Ray Core 进行简单 MapReduce 示例
      • 圆周率的蒙特卡洛估算
      • 简单并行模型选择
      • 参数服务器
      • 学习玩 Pong 游戏
      • 使用 Ray 并行化加速网络爬虫
    • Ray Core API
      • Core API
      • 调度 API
      • 运行时环境 API
      • 工具
      • 异常
      • Ray Core CLI
      • 状态 CLI
      • 状态 API
  • Ray Data
    • Ray Data 快速入门
    • 关键概念
    • 用户指南
      • 加载数据
      • 检查数据
      • 转换数据
      • 迭代数据
      • 混洗数据
      • 保存数据
      • 处理图像
      • 处理文本
      • 处理张量 / NumPy
      • 处理 PyTorch
      • 处理 LLM
      • 监控你的工作负载
      • 执行配置
      • 端到端:离线批量推理
      • 高级:性能提示和调优
      • 高级:读写自定义文件类型
    • 示例
    • Ray Data API
      • 输入/输出
      • Dataset API
      • DataIterator API
      • ExecutionOptions API
      • 聚合 API
      • GroupedData API
      • 全局配置
      • 预处理器
      • 大型语言模型 (LLM) API
      • 其他数据库用户的 API 指南
    • Ray Data 与其他系统的比较
    • Ray Data 内部
  • Ray Train
    • 概览
    • PyTorch 指南
    • PyTorch Lightning 指南
    • Hugging Face Transformers 指南
    • XGBoost 指南
    • 更多框架
      • Hugging Face Accelerate 指南
      • DeepSpeed 指南
      • TensorFlow 和 Keras 指南
      • XGBoost 和 LightGBM 指南
      • Horovod 指南
    • 用户指南
      • 数据加载和预处理
      • 配置规模和 GPU
      • 配置持久存储
      • 监控和记录指标
      • 保存和加载检查点
      • 实验跟踪
      • 检查训练结果
      • 处理故障和节点抢占
      • 可重现性
      • 超参数优化
    • 示例
    • 基准测试
    • Ray Train API
  • Ray Tune
    • 入门
    • 关键概念
    • 用户指南
      • 运行基本实验
      • Tune 中的日志和输出
      • 设置试验资源
      • 使用搜索空间
      • 如何为 Ray Tune 实验定义停止标准
      • 如何保存和加载试验检查点
      • 如何在 Ray Tune 中配置持久存储
      • 如何在 Ray Tune 中启用容错
      • 使用回调和指标
      • 在 Tune 中导入和导出数据
      • 分析 Tune 实验结果
      • 使用 Tune 进行基于人群的训练指南
        • 可视化和理解 PBT
      • 在云端部署 Tune
      • Tune 架构
      • 可伸缩性基准测试
    • Ray Tune 示例
      • PyTorch 示例
      • PyTorch Lightning 示例
      • XGBoost 示例
      • LightGBM 示例
      • Hugging Face Transformers 示例
      • Ray RLlib 示例
      • Keras 示例
      • Horovod 示例
      • Weights & Biases 示例
      • MLflow 示例
      • Aim 示例
      • Comet 示例
      • Ax 示例
      • HyperOpt 示例
      • Bayesopt 示例
      • BOHB 示例
      • Nevergrad 示例
      • Optuna 示例
    • Ray Tune 常见问题
    • Ray Tune API
      • Tune 执行 (tune.Tuner)
      • Tune 实验结果 (tune.ResultGrid)
      • Tune 中的训练 (tune.Trainable, tune.report)
      • Tune 搜索空间 API
      • Tune 搜索算法 (tune.search)
      • Tune 试验调度器 (tune.schedulers)
      • Tune 停止机制 (tune.stopper)
      • Tune 控制台输出 (Reporters)
      • Tune 中的同步
      • Tune 记录器 (tune.logger)
      • Tune 回调 (tune.Callback)
      • Ray Tune 使用的环境变量
      • Ray Tune 的外部库集成
      • Tune 内部
      • Tune CLI (实验性)
  • Ray Serve
    • 入门
    • 关键概念
    • 开发和部署 ML 应用
    • 部署模型组合
    • 部署多个应用
    • 模型多路复用
    • 配置 Ray Serve 部署
    • 设置 FastAPI 和 HTTP
    • 服务 LLM
    • 生产指南
      • Serve 配置文件
      • 在 Kubernetes 上部署
      • 自定义 Docker 镜像
      • 添加端到端容错
      • 处理依赖项
      • 生产中的最佳实践
    • 监控你的应用
    • 资源分配
    • Ray Serve 自动扩缩容
    • 高级指南
      • 向应用传递参数
      • 高级 Ray Serve 自动扩缩容
      • 性能调优
      • 动态请求批量处理
      • 原地更新应用
      • 开发工作流
      • 设置 gRPC 服务
      • 实验性 Java API
      • 在虚拟机上部署
      • 在不同容器中运行多个应用
    • 架构
    • 示例
    • Ray Serve API
  • Ray RLlib
    • 入门
    • 关键概念
    • 环境
      • 多智能体环境
      • 分层环境
      • 外部环境和应用
    • AlgorithmConfig API
    • 算法
    • 用户指南
      • 高级 Python API
      • 回调
      • 检查点
      • MetricsLogger API
      • 回合
      • 回放缓冲区
      • 处理离线数据
      • RL Module
      • Learner (Alpha)
      • 在 RLlib 中使用 torch 2.x compile
      • 容错和弹性训练
      • 安装 RLlib 进行开发
      • RLlib 扩展指南
    • 示例
    • 新 API 栈迁移指南
    • Ray RLlib API
      • 算法配置 API
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.build_algo
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.build_learner_group
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.build_learner
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.is_multi_agent
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.is_offline
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.learner_class
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.model_config
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.rl_module_spec
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.total_train_batch_size
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.get_default_learner_class
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.get_default_rl_module_spec
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.get_evaluation_config_object
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.get_multi_rl_module_spec
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.get_multi_agent_setup
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.get_rollout_fragment_length
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.copy
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.validate
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.freeze
      • 算法
        • ray.rllib.algorithms.algorithm.Algorithm
        • ray.rllib.algorithms.algorithm.Algorithm.setup
        • ray.rllib.algorithms.algorithm.Algorithm.get_default_config
        • ray.rllib.algorithms.algorithm.Algorithm.env_runner
        • ray.rllib.algorithms.algorithm.Algorithm.eval_env_runner
        • ray.rllib.algorithms.algorithm.Algorithm.train
        • ray.rllib.algorithms.algorithm.Algorithm.training_step
        • ray.rllib.algorithms.algorithm.Algorithm.save_to_path
        • ray.rllib.algorithms.algorithm.Algorithm.restore_from_path
        • ray.rllib.algorithms.algorithm.Algorithm.from_checkpoint
        • ray.rllib.algorithms.algorithm.Algorithm.get_state
        • ray.rllib.algorithms.algorithm.Algorithm.set_state
        • ray.rllib.algorithms.algorithm.Algorithm.evaluate
        • ray.rllib.algorithms.algorithm.Algorithm.get_module
        • ray.rllib.algorithms.algorithm.Algorithm.add_policy
        • ray.rllib.algorithms.algorithm.Algorithm.remove_policy
      • 回调 API
        • ray.rllib.callbacks.callbacks.RLlibCallback
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_algorithm_init
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_sample_end
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_train_result
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_evaluate_start
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_evaluate_end
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_env_runners_recreated
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_checkpoint_loaded
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_environment_created
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_episode_created
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_episode_start
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_episode_step
        • ray.rllib.callbacks.callbacks.RLlibCallback.on_episode_end
      • 环境
        • EnvRunner API
        • SingleAgentEnvRunner API
        • SingleAgentEpisode API
        • MultiAgentEnv API
        • MultiAgentEnvRunner API
        • MultiAgentEpisode API
        • 环境工具
      • RL Module API
        • ray.rllib.core.rl_module.rl_module.RLModuleSpec
        • ray.rllib.core.rl_module.rl_module.RLModuleSpec.build
        • ray.rllib.core.rl_module.rl_module.RLModuleSpec.module_class
        • ray.rllib.core.rl_module.rl_module.RLModuleSpec.observation_space
        • ray.rllib.core.rl_module.rl_module.RLModuleSpec.action_space
        • ray.rllib.core.rl_module.rl_module.RLModuleSpec.inference_only
        • ray.rllib.core.rl_module.rl_module.RLModuleSpec.learner_only
        • ray.rllib.core.rl_module.rl_module.RLModuleSpec.model_config
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModuleSpec
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModuleSpec.build
        • ray.rllib.core.rl_module.default_model_config.DefaultModelConfig
        • ray.rllib.core.rl_module.rl_module.RLModule
        • ray.rllib.core.rl_module.rl_module.RLModule.observation_space
        • ray.rllib.core.rl_module.rl_module.RLModule.action_space
        • ray.rllib.core.rl_module.rl_module.RLModule.inference_only
        • ray.rllib.core.rl_module.rl_module.RLModule.model_config
        • ray.rllib.core.rl_module.rl_module.RLModule.setup
        • ray.rllib.core.rl_module.rl_module.RLModule.as_multi_rl_module
        • ray.rllib.core.rl_module.rl_module.RLModule.forward_exploration
        • ray.rllib.core.rl_module.rl_module.RLModule.forward_inference
        • ray.rllib.core.rl_module.rl_module.RLModule.forward_train
        • ray.rllib.core.rl_module.rl_module.RLModule._forward
        • ray.rllib.core.rl_module.rl_module.RLModule._forward_exploration
        • ray.rllib.core.rl_module.rl_module.RLModule._forward_inference
        • ray.rllib.core.rl_module.rl_module.RLModule._forward_train
        • ray.rllib.core.rl_module.rl_module.RLModule.save_to_path
        • ray.rllib.core.rl_module.rl_module.RLModule.restore_from_path
        • ray.rllib.core.rl_module.rl_module.RLModule.from_checkpoint
        • ray.rllib.core.rl_module.rl_module.RLModule.get_state
        • ray.rllib.core.rl_module.rl_module.RLModule.set_state
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.setup
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.as_multi_rl_module
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.add_module
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.remove_module
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.save_to_path
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.restore_from_path
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.from_checkpoint
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.get_state
        • ray.rllib.core.rl_module.multi_rl_module.MultiRLModule.set_state
      • 分布 API
        • ray.rllib.models.distributions.Distribution
        • ray.rllib.models.distributions.Distribution.from_logits
        • ray.rllib.models.distributions.Distribution.sample
        • ray.rllib.models.distributions.Distribution.rsample
        • ray.rllib.models.distributions.Distribution.logp
        • ray.rllib.models.distributions.Distribution.kl
      • LearnerGroup API
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.learners
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.build_learner_group
        • ray.rllib.core.learner.learner_group.LearnerGroup
      • 离线强化学习 API
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.offline_data
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.learners
        • ray.rllib.algorithms.algorithm_config.AlgorithmConfig.env_runners
        • ray.rllib.offline.offline_env_runner.OfflineSingleAgentEnvRunner
        • ray.rllib.offline.offline_data.OfflineData
        • ray.rllib.offline.offline_data.OfflineData.__init__
        • ray.rllib.offline.offline_data.OfflineData.sample
        • ray.rllib.offline.offline_data.OfflineData.default_map_batches_kwargs
        • ray.rllib.offline.offline_data.OfflineData.default_iter_batches_kwargs
        • ray.rllib.offline.offline_prelearner.OfflinePreLearner
        • ray.rllib.offline.offline_prelearner.OfflinePreLearner.__init__
        • ray.rllib.offline.offline_prelearner.SCHEMA
        • ray.rllib.offline.offline_prelearner.OfflinePreLearner.__call__
        • ray.rllib.offline.offline_prelearner.OfflinePreLearner._map_to_episodes
        • ray.rllib.offline.offline_prelearner.OfflinePreLearner._map_sample_batch_to_episode
        • ray.rllib.offline.offline_prelearner.OfflinePreLearner._should_module_be_updated
        • ray.rllib.offline.offline_prelearner.OfflinePreLearner.default_prelearner_buffer_class
        • ray.rllib.offline.offline_prelearner.OfflinePreLearner.default_prelearner_buffer_kwargs
      • 回放缓冲区 API
        • ray.rllib.utils.replay_buffers.replay_buffer.StorageUnit
        • ray.rllib.utils.replay_buffers.replay_buffer.ReplayBuffer
        • ray.rllib.utils.replay_buffers.prioritized_replay_buffer.PrioritizedReplayBuffer
        • ray.rllib.utils.replay_buffers.reservoir_replay_buffer.ReservoirReplayBuffer
        • ray.rllib.utils.replay_buffers.replay_buffer.ReplayBuffer.sample
        • ray.rllib.utils.replay_buffers.replay_buffer.ReplayBuffer.add
        • ray.rllib.utils.replay_buffers.replay_buffer.ReplayBuffer.get_state
        • ray.rllib.utils.replay_buffers.replay_buffer.ReplayBuffer.set_state
        • ray.rllib.utils.replay_buffers.multi_agent_replay_buffer.MultiAgentReplayBuffer
        • ray.rllib.utils.replay_buffers.multi_agent_prioritized_replay_buffer.MultiAgentPrioritizedReplayBuffer
        • ray.rllib.utils.replay_buffers.utils.update_priorities_in_replay_buffer
        • ray.rllib.utils.replay_buffers.utils.sample_min_n_steps_from_buffer
      • RLlib 工具
        • ray.rllib.utils.metrics.metrics_logger.MetricsLogger
        • ray.rllib.utils.metrics.metrics_logger.MetricsLogger.peek
        • ray.rllib.utils.metrics.metrics_logger.MetricsLogger.log_value
        • ray.rllib.utils.metrics.metrics_logger.MetricsLogger.log_dict
        • ray.rllib.utils.metrics.metrics_logger.MetricsLogger.merge_and_log_n_dicts
        • ray.rllib.utils.metrics.metrics_logger.MetricsLogger.log_time
        • ray.rllib.utils.schedules.scheduler.Scheduler
        • ray.rllib.utils.schedules.scheduler.Scheduler.validate
        • ray.rllib.utils.schedules.scheduler.Scheduler.get_current_value
        • ray.rllib.utils.schedules.scheduler.Scheduler.update
        • ray.rllib.utils.schedules.scheduler.Scheduler._create_tensor_variable
        • ray.rllib.utils.framework.try_import_torch
        • ray.rllib.utils.torch_utils.clip_gradients
        • ray.rllib.utils.torch_utils.compute_global_norm
        • ray.rllib.utils.torch_utils.convert_to_torch_tensor
        • ray.rllib.utils.torch_utils.explained_variance
        • ray.rllib.utils.torch_utils.flatten_inputs_to_1d_tensor
        • ray.rllib.utils.torch_utils.global_norm
        • ray.rllib.utils.torch_utils.one_hot
        • ray.rllib.utils.torch_utils.reduce_mean_ignore_inf
        • ray.rllib.utils.torch_utils.sequence_mask
        • ray.rllib.utils.torch_utils.set_torch_seed
        • ray.rllib.utils.torch_utils.softmax_cross_entropy_with_logits
        • ray.rllib.utils.torch_utils.update_target_network
        • ray.rllib.utils.numpy.aligned_array
        • ray.rllib.utils.numpy.concat_aligned
        • ray.rllib.utils.numpy.convert_to_numpy
        • ray.rllib.utils.numpy.fc
        • ray.rllib.utils.numpy.flatten_inputs_to_1d_tensor
        • ray.rllib.utils.numpy.make_action_immutable
        • ray.rllib.utils.numpy.huber_loss
        • ray.rllib.utils.numpy.l2_loss
        • ray.rllib.utils.numpy.lstm
        • ray.rllib.utils.numpy.one_hot
        • ray.rllib.utils.numpy.relu
        • ray.rllib.utils.numpy.sigmoid
        • ray.rllib.utils.numpy.softmax
        • ray.rllib.utils.checkpoints.try_import_msgpack
        • ray.rllib.utils.checkpoints.Checkpointable
  • 更多库
    • 分布式 Scikit-learn / Joblib
    • 分布式 multiprocessing.Pool
    • Ray 集合通信库
    • 在 Ray 上使用 Dask
      • ray.util.dask.RayDaskCallback
        • ray.util.dask.RayDaskCallback.ray_active
      • ray.util.dask.callbacks.RayDaskCallback._ray_presubmit
      • ray.util.dask.callbacks.RayDaskCallback._ray_postsubmit
      • ray.util.dask.callbacks.RayDaskCallback._ray_pretask
      • ray.util.dask.callbacks.RayDaskCallback._ray_posttask
      • ray.util.dask.callbacks.RayDaskCallback._ray_postsubmit_all
      • ray.util.dask.callbacks.RayDaskCallback._ray_finish
    • 在 Ray 上使用 Spark (RayDP)
    • 在 Ray 上使用 Mars
    • 在 Ray 上使用 Pandas (Modin)
    • 在 Data-Juicer 中进行分布式数据处理
    • Ray 工作流 (已弃用)
      • 关键概念
      • 入门
      • 工作流管理
      • 工作流元数据
      • 事件
      • API 比较
      • 高级主题
      • Ray 工作流 API
        • 工作流执行 API
        • 工作流管理 API
  • Ray 集群
    • 关键概念
    • 在 Kubernetes 上部署
      • KubeRay 入门
        • KubeRay Operator 安装
        • RayCluster 快速入门
        • RayJob 快速入门
        • RayService 快速入门
      • 用户指南
        • 部署 Ray Serve 应用
        • RayService worker Pod 未就绪
        • RayService 高可用性
        • KubeRay 可观测性
        • KubeRay 升级指南
        • 托管的 Kubernetes 服务
        • 存储和依赖项的最佳实践
        • RayCluster 配置
        • KubeRay 自动扩缩容
        • KubeRay 中的 GCS 容错
        • 为持久容错 GCS 调优 Redis
        • 配置 KubeRay 在 GKE 中使用 Google Cloud Storage Bucket
        • 持久化 KubeRay 自定义资源日志
        • 持久化 KubeRay Operator 日志
        • 使用 GPU
        • 在 KubeRay 中使用 TPU
        • 在 RayCluster 上开发 Ray Serve Python 脚本
        • 为 Ray head/worker Pod 指定容器命令
        • Helm Chart RBAC
        • TLS 认证
        • (高级) 理解 Kubernetes 环境下的 Ray 自动扩缩容器
        • (高级) 不使用 KubeRay 部署静态 Ray 集群
        • 使用 kubectl 插件 (Beta)
        • 使用 KubeRay 配置带认证和访问控制的 Ray 集群
        • 减少 Kubernetes 上的镜像拉取延迟
      • 示例
        • Ray Train XGBoostTrainer 在 Kubernetes 上
        • 在 Kubernetes 上使用 GPU 训练 PyTorch ResNet 模型
        • 在 Kubernetes 上使用 CPU 训练 Fashion MNIST 的 PyTorch 模型
        • 在 Kubernetes 上服务 StableDiffusion 文本到图像模型
        • 在 GKE 上使用 TPU 服务 Stable Diffusion 模型
        • 在 Kubernetes 上服务 MobileNet 图像分类器
        • 在 Kubernetes 上服务文本摘要器
        • RayJob 批量推理示例
        • 使用 RayJob 和 Kueue 进行优先级调度
        • 使用 RayJob 和 Kueue 进行组调度 (Gang Scheduling)
        • 使用 KubeRay 和 GCSFuse 进行分布式检查点
        • 在 Kubernetes 上结合 Ray 使用 Modin
        • 在 Kubernetes 上使用 vLLM 服务大型语言模型
      • KubeRay 生态系统
        • Ingress
        • 使用 Prometheus 和 Grafana
        • 使用 py-spy 进行性能分析
        • KubeRay 与 Volcano 集成
        • KubeRay 与 Apache YuniKorn 集成
        • 使用 Kueue 对 RayJob 进行组调度和优先级调度
        • 使用 Istio 进行 mTLS 和 L7 可观测性
      • KubeRay 基准测试
        • KubeRay 内存和可伸缩性基准测试
      • KubeRay 故障排除
        • 故障排除指南
        • RayService 故障排除
      • API 参考
    • 在虚拟机上部署
      • 入门
      • 用户指南
        • 在 AWS, GCP, Azure, vSphere, 本地启动 Ray 集群
        • 部署大型集群的最佳实践
        • 配置自动扩缩容
        • 日志持久化
        • 社区支持的集群管理器
      • 示例
        • Ray Train XGBoostTrainer 在虚拟机上
      • API 参考
        • 集群启动器命令
        • 集群 YAML 配置选项
    • 收集和监控指标
    • 配置和管理 Ray Dashboard
    • 应用指南
      • Ray Jobs 概览
        • 使用 Ray Jobs CLI 快速入门
        • Python SDK 概览
        • Python SDK API 参考
        • Ray Jobs CLI API 参考
        • Ray Jobs REST API
        • Ray Client
      • 编程式集群扩缩容
    • 常见问题
    • Ray 集群管理 API
      • 集群管理 CLI
      • Python SDK API 参考
      • Ray Jobs CLI API 参考
      • 编程式集群扩缩容
    • 使用统计收集
  • 监控和调试
    • Ray Dashboard
    • Ray 分布式调试器
    • 关键概念
    • 用户指南
      • 调试应用
        • 常见问题
        • 调试内存问题
        • 调试挂起
        • 调试失败
        • 优化性能
        • Ray 分布式调试器
        • 使用 Ray Debugger
      • 使用 CLI 或 SDK 进行监控
      • 配置日志记录
      • 性能分析
      • 添加应用级指标
      • 追踪
    • 参考
      • 状态 API
      • 状态 CLI
      • 系统指标
  • 开发者指南
    • API 稳定性
    • API 策略
    • 参与 / 贡献
      • 从源码构建 Ray
      • PR 的 CI 测试工作流
      • 贡献 Ray 文档
      • 如何编写代码片段
      • 在本地测试自动扩缩容
      • 测试 Ray 程序的提示
      • 面向 Ray 开发者的调试
      • 面向 Ray 开发者的性能分析
    • 配置 Ray
    • 架构白皮书
  • 术语表
  • 安全性
  • 什么是 Ray Core?
  • Ray Core 示例

Ray Core 示例#

以下是使用 Ray Core 处理各种用例的示例。

初级#

Ray Core 示例入门

使用 Ray 处理高度并行任务

圆周率的蒙特卡洛估算

中级#

使用 Ray Core 运行简单的 MapReduce 示例

使用 Ray 并行化加速网络爬虫

高级#

使用 Ray 构建简单的时间序列 AutoML

使用 Ray 构建批量预测

使用 Ray 构建简单参数服务器

简单并行模型选择

学习玩 Pong 游戏

上一篇

用户生成进程的生命周期

下一篇

使用 Ray Core 进行简单的时间序列 AutoML

本页目录
  • 初级
  • 中级
  • 高级
在 GitHub 上编辑
感谢你的反馈!
这有帮助吗?
是
否
反馈
提交

© 版权所有 2025, Ray 团队。

使用 Sphinx 7.3.7 创建。

使用 PyData Sphinx Theme 0.14.1 构建。