240 发简信
IP属地:广东
  • 解释一下多头自注意力机制

    多头自注意力机制(Multi-Head Attention)是Transformer架构中的一个关键组成部分,它允许模型在不同的子空间中捕捉输入...

  • Transformer架构

    Transformer架构是一种用于处理序列数据的深度学习模型,它摒弃了传统的卷积神经网络(CNN)和循环神经网络(RNN)结构,而是采用了自注...

  • 通过streampark可以直接往k8s集群发布flink任务吗?

    可以的。StreamPark 支持通过 Flink 的 Kubernetes 插件,直接往 K8s 集群发布 Flink 任务。具体步骤如下: ...

  • Resize,w 360,h 240
    kettle连接gbase 总结

    自定义Kettle数据库插件https://blog.51cto.com/u_16145034/6382022[https://blog.51c...

  • 1.2 数据计算

    1.2. 为更好地理解和分析公司的盈利情况,根据季报数据,计算出公司近五年(2018到2022年)的营业利润,分年度展示每一年四个季度的营业利润...

  • 1.1 数据分析

    1.1 分析公司利润数据得出公司近五年(2018到2022年)营业总收入和营业总成本,使用折柱混合图展示。(20分,简单)下面是一个使用Pyth...

  • 0.1 数据采集

    *请以上市公司久其软件(股票代码002279)为例,根据网页数据:https://money.finance.sina.com.cn/corp/...

  • PyFlink

    PyFlink官方文档: https://nightlies.apache.org/flink/flink-docs-release-1.15/...

个人介绍
好在历史是公正的,
好在时间是公平的。