搜索

Help

第85页,共190页。 显示 1,894 条结果 (0.04 秒)

  1. 数据挖掘-最小最大归一化

    端口 输出 一个输出端口,与抽取、变换节点组合使用 参数设置 参数名称 说明 备注 新增列后缀 用于设置在原字段名后追加后缀生成新的,默认后缀为:Normalized; 必填 图片1.png 示例 使用“鸢尾花数据”,特征选择4个特征,最大最小归一化为[0,1]区间的数,输出结果如下图: 图片2.png 最小最大归一化
  2. 数据挖掘-最大绝对值归一化

    概述 最大绝对值归一化通过除以每个特征内的最大绝对值将每个特征映射到[-1,1]的范围;它不会移动和中心化数据,因此不会破坏任何的稀疏性。 输入/输出 输入 没有输入端口 输出 一个输出端口,与抽取、变换节点组合使用 参数设置 参数名称 说明 备注 新增列后缀 用于设置在原字段名后追加后缀生成新的,默认后缀为:Normalized; 必填 图片3.png 示例 使用“鸢尾花数据”,特征选择4个特征,最大绝对值归一化为[-1,1]范围的数据,输出结果如下图: 图片4.png 最大绝对值归一化
  3. 数据挖掘-词袋

    概述 词袋是为了对句子进行分词,根据分隔符将句子分割开来,分成一个个独立的词语或者单词。常用于英文文本分割语句。 输入/输出 输入 一个输入端口,用于接收数据集 输出 一个输出端口,用于输出分隔后的结果 参数设置 参数配置 说明 备注 选择文本项 选择需要分割的文本 必填 分隔符 输入指定的分隔符 必填 示例 使用“垃圾短信识别”数据,选择需要分割的文本,设置”/”分隔符进行分割,输出结果如下图: image2020-6-4 11_11_16.png 词袋
  4. 数据挖掘-停用词处理

    概述 停用词处理是由于有些词频很高,但对文章却没有太多意义的语气词和助词等等,比如这、我、你们、吗等等,对这些词进行去掉处理以便能够更好的分析语义。常用于关键词提取分析。 输入/输出 输入 一个输入端口,用于需要过滤停用词的字段。 输出 一个输出端口,用于输出去掉停用词之后的结果。 参数设置 参数名称 说明 备注 字段选择 选择需要去除停用词的 必填 停用词列表 在对话框填写停用词,每行填写一个停用词 必填 示例 使用“深圳企业信息”示例数据,选择分词后去除停用词的(企业名称
  5. 资源权限-实现某个字段权限设置

    示例说明 在业务系统中,为角色赋予操作权限之后,还需要为角色赋予资源权限。下面我们演示如何为角色分配资源数据权限。 某些字段只允许特殊的用户查看,没有权限的用户不能查看,例如普通用户查看不了运费字段的数据。如图: image2019-12-2 18:10:15.png 实现步骤 1、可参考 操作权限-用户只能浏览报表 为"业务角色"授予操作权限。 2、在 数据准备 > 数据集 找到对应的数据集,如下图“数据查询”中的“运费”字段,右键资源授权,取消勾选“从父节点继承权限”,并删除已有的角色,再授予可以查看的角色。 本示例需要去掉EveryOne角色和普通角色。 39.png 3、设置好后,登录普通用户,效果图
  6. 数据挖掘-预测

    预测节点右键可查看预测结果输出。 输出字段 输出字段 概念及其作用 features 特征向量,是由特征组成的特征向量。 featuresNormalized 归一化后的特征向量,将特征向量进行归一化转换。 rawPrediction 直接概率,即每个可能标签置信度的度量。 probability 条件概率,在给出原始预测的情况下估算每个类别的概率。 prediction 预测,根据特征列计算出的预测结果。 预测
  7. 数据挖掘-最小最大归一化

    端口 输出 一个输出端口,与抽取、变换节点组合使用 参数设置 参数名称 说明 备注 新增列后缀 用于设置在原字段名后追加后缀生成新的,默认后缀为:Normalized; 必填 图片1.png 示例 使用“鸢尾花数据”,特征选择4个特征,最大最小归一化为[0,1]区间的数,输出结果如下图: 图片2.png 最小最大归一化
  8. 数据挖掘-最大绝对值归一化

    概述 最大绝对值归一化通过除以每个特征内的最大绝对值将每个特征映射到[-1,1]的范围;它不会移动和中心化数据,因此不会破坏任何的稀疏性。 输入/输出 输入 没有输入端口 输出 一个输出端口,与抽取、变换节点组合使用 参数设置 参数名称 说明 备注 新增列后缀 用于设置在原字段名后追加后缀生成新的,默认后缀为:Normalized; 必填 图片3.png 示例 使用“鸢尾花数据”,特征选择4个特征,最大绝对值归一化为[-1,1]范围的数据,输出结果如下图: 图片4.png 最大绝对值归一化
  9. 数据挖掘-词袋

    概述 词袋是为了对句子进行分词,根据分隔符将句子分割开来,分成一个个独立的词语或者单词。常用于英文文本分割语句。 输入/输出 输入 一个输入端口,用于接收数据集 输出 一个输出端口,用于输出分隔后的结果 参数设置 参数配置 说明 备注 选择文本项 选择需要分割的文本 必填 分隔符 输入指定的分隔符 必填 示例 使用“垃圾短信识别”数据,选择需要分割的文本,设置”/”分隔符进行分割,输出结果如下图: image2020-6-4 11_11_16.png 词袋
  10. 数据挖掘-停用词处理

    概述 停用词处理是由于有些词频很高,但对文章却没有太多意义的语气词和助词等等,比如这、我、你们、吗等等,对这些词进行去掉处理以便能够更好的分析语义。常用于关键词提取分析。 输入/输出 输入 一个输入端口,用于需要过滤停用词的字段。 输出 一个输出端口,用于输出去掉停用词之后的结果。 参数设置 参数名称 说明 备注 字段选择 选择需要去除停用词的 必填 停用词列表 在对话框填写停用词,每行填写一个停用词 必填 示例 使用“深圳企业信息”示例数据,选择分词后去除停用词的(企业名称