我目前正在物联网上工作,在我目前的项目中,我实现了将温度值发送到IoT集线器(使用树莓PI2和BMP280传感器)的逻辑,在蓝色部分,我创建了用于接收来自IoT集线器的消息的流分析作业,并根据我的查询过滤这些值,如如果温度值超过30度,并将那些过滤值发布到事件集线器是流分析作业的输出之一。
我在流分析作业中编写的查询。
SELECT
System.timestamp AS Time,
DeviceId,
RoomTemp,
RoomPressure,
RoomAlt
INTO
eventhub
FROM
bmpsensordata
WHERE RoomTemp>
SonarQube不支持并行执行,因为并行执行失败,出现以下错误:
Caused by: org.sonar.api.utils.SonarException: The project is already been analysing
我正在使用SonarQube v4.3.3进行代码检查。
现在我的hudson作业是并行运行的,由于这个限制,我无法将声纳分析添加到我的Hudson作业中。
请建议如何在使用SonarQube的连续管道中使用SonarQube和hudson。
我正在使用Azure Microsoft Graph API对我的.NET AD发出查询,如下所示:
var userRequest = _graphClient.Users.Delta();
var filter = "startswith(displayName,'K')";
var users = await userRequest.Request().Filter(filter).GetAsync();
根据Fiddler流量,这将导致HTTP GET,如下所示:
GET /v1.0/users/microsoft.graph.delta?$filter
有没有办法在Stream Analytics作业中设置输出路径前缀,将数据存储到data Lake store中,以将其存储到单独的文件(取决于设备id)中,例如data/2017/5/3/device1.csv,data/2017/5/3/device2.csv ...或者,在流分析将数据存储到一个文件之后,执行此操作的最佳方式是什么?我的输入文件是iot集线器。
我正在分析Analytics,用一些REST微服务取代基于NiFi的流处理解决方案。
一个步骤是从一个非常大的传感器数据库(>120 is )中丰富传感器数据。
有可能用Azure流分析仪吗?我尝试了一个非常小的数据子集(60 to ),甚至无法让它运行。
作业日志会给出内存使用率过高的警告。试着扩大到36个流单位,看看是否可能,但没有任何效果。
我要采取什么策略才能让它发挥作用?
如果我确定地(通过哈希函数)按照ID使用N个分区对输入流进行分区,然后使用相同的散列函数(获取流上的id和数据库上的ID到同一个分区)对数据库进行分区,那么我能做到这一点吗?我需要创建几个独立的流分析作业吗?
我有一个流分析工作,这将把数据从一个Blob到Cosmos DB。
当我运行作业时,我得到了下面的错误,Cosmos DB集合没有得到更新。
错误:
[10:20:57 AM] Source 'signalData' had 1 occurrences of kind 'OutputDataConversionError.RequiredColumnMissing' between processing times '2019-06-27T04:50:57.4433960Z' and '2019-06-27T04:50:57.443396
我在使用ADAL.js框架的JavaScript中有一个身份验证功能,它会将用户重定向到microsftonline在线登录页面。在我们可以使用Microsoft个人帐户和在Azure AD中创建的帐户成功进行身份验证之前,但现在它在Microsoft个人帐户中不起作用。
这是登录页面的url:
它返回以下错误:
AADSTS50020: We are unable to issue tokens from this api version for a Microsoft account.
Please contact the application vendor as they need
我知道这个问题已经被问了很多次了,但在某些情况下它是不同的,所以我无法理解。当我在Eclipse中运行我的游戏时,一切都很顺利,游戏运行得很完美,但是在我导出它之后,它崩溃了。我可以打开游戏并在菜单中移动,但没有声音播放,在我点击播放后,游戏就冻结了,它给我这个错误与cmd (我可以粘贴任何必要的类,但希望只有Audio类是必要的):
java.io.IOException: mark/reset not supported
at java.util.zip.InflaterInputStream.reset(Unknown Source)
at java.io.FilterI
我在Dataflow (jdbc到BigQuery)上设置了一个计划好的管道,可以在G1小实例上运行。
运行了几个作业,但是在每个作业的日志中都有一个警告:
Running Dataflow jobs with shared-core instance types (g1-small, f1-micro) is not officially supported.
所有的工作都已经完成,没有任何错误,但我仍然收到警告。有没有人面临过同样的警告?