首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    仅花费60美元就能破坏0.01%数据集,AI模型性能显著降低

    机器之心报道 编辑:袁铭怿 网络规模的数据集很容易受到低成本的投毒攻击,这种攻击只需要一小部分被破坏的样本就可以使整个模型中毒。 用于训练深度学习模型的数据集已经从数千个精心策划的示例增长到具有数十亿个从互联网自动爬取样本的网络规模数据集。在这种规模下,通过人力管理来确保每个示例的质量是不可行的。到目前为止,这种数量高于质量的权衡是可以接受的,一方面是因为现代神经网络对大量标签噪声具有很强的适应力,另一方面是因为对噪声数据的训练甚至可以提高模型在非分布数据上的效用。 虽然大型深度学习模型对随机噪声具有一定

    03

    高效的快照隔离检测算法与工具 | VLDB 2023入选论文解读

    在数据库事务中,快照隔离(Snapshot Isolation, SI)是一种已被广泛使用的弱隔离级别,它既避免了可串行化带来的性能损失,又能防止多种不希望出现的数据异常。然而,近期的研究指出,一些声称提供快照隔离级别保证的数据库会产生违反快照隔离的数据异常。在本工作中,我们设计并实现了快照隔离检测器PolySI。PolySI 能够高效地判定给定数据库的执行历史是否满足快照隔离,并在检测到数据异常时提供易于理解的反例。PolySI的性能优于目前已知的最好的黑盒快照隔离检查器,并且可以扩展到包含百万级别事务数量的大规模数据库执行历史上。

    05
    领券