ETL实时处理方案 使用Flink从kafka读取数据实时写入到hive中, 使用presto进行查询
ETL实时处理方案 使用Flink从kafka读取数据实时写入到hive中, 使用presto进行查询
用户画像处理 1.从hive读取数据处理后将用户特征写入hbase 2.用户画像划分维度分为环境特征, 行为偏好特征, 付费特征, 社交特征, 策略特征, 调整特征
数据上报SDK 1. 将数据模型进行封装, 封装具体接口调用过程, 用户无需关心具体实现 2. 数据上报封装成批量, 定时, 异步的方式, 提供传输性能 3. 错误处理只限于内部代码, 无需抛给调用者, 打印错误日志即可。
最近一年贡献:0 次
最长连续贡献:0 日
最近连续贡献:0 日
贡献度的统计数据包括代码提交、创建任务 / Pull Request、合并 Pull Request,其中代码提交的次数需本地配置的 git 邮箱是 Gitee 帐号已确认绑定的才会被统计。