“区块链”、文本分析、hadoop、lucence
分词应该是搜索引擎中的分词器 比如现在最常用的是ik 原来的是庖丁
分析词性和词义还有词频,分词一般就是中文麻烦点,英文简单
通过海量数据计算分析 可以提取出有用的数据关系模型 这些数据关系模型可以做推荐 可以计算用户行为 可以做人物或者城市画像等等
拿到北京200w浮动车数据点 计算到北京的所有的道路网络上 计算出每条道路的拥堵程度 车速 通行时间
在电信做的工作就是拿到电信收集到的全国2e人的信令数据 计算分析 算出每个人工作在那里 每天几天上下班 加班多不多 下周二可能出现在那里 平时喜欢做什么 再比如每天地铁站几点开始拥堵 需要限流排队 某个景点在每年的什么时候出现高峰 高峰值大概什么样 预测规划这样的。