首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >斯坦福NLP课程 | 第19讲 - AI安全偏见与公平

斯坦福NLP课程 | 第19讲 - AI安全偏见与公平

原创
作者头像
ShowMeAI
发布于 2022-05-23 10:27:16
发布于 2022-05-23 10:27:16
5150
举报
文章被收录于专栏:ShowMeAI研究中心ShowMeAI研究中心
  • 作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI
  • 教程地址http://www.showmeai.tech/tutorials/36
  • 本文地址http://www.showmeai.tech/article-detail/257
  • 声明:版权所有,转载请联系平台与作者并注明出处
  • 收藏ShowMeAI查看更多精彩内容

AI安全偏见与公平
AI安全偏见与公平

ShowMeAI斯坦福CS224n自然语言处理深度学习(Natural Language Processing with Deep Learning)》课程的全部课件,做了中文翻译和注释,并制作成了GIF动图!


1.Bias in the Vision and Language of Artificial Intelligence

Bias in the Vision and Language of Artificial Intelligence
Bias in the Vision and Language of Artificial Intelligence

2.Prototype Theory

What do you see?
What do you see?
  • Bananas
  • Stickers
  • Dole Bananas
  • Bananas at a store
  • Bananas on shelves
  • Bunches of bananas
  • Bananas with stickers on them
  • Bunches of bananas with stickers on them on shelves in a store

...We don’t tend to say Yellow Bananas

What do you see?
What do you see?
What do you see?
What do you see?
What do you see?
What do you see?
Prototype Theory
Prototype Theory
  • Prototype Theory
    • 分类的目的之一是减少刺激行为和认知上可用的比例的无限差异
    • 物品的一些核心、原型概念可能来自于存储的对象类别的典型属性 (Rosch, 1975)
    • 也可以存储范例 (Wu & Barsalou, 2009)
Prototype Theory
Prototype Theory
  • Doctor —— Female Doctor
  • 大多数受试者忽视了医生是女性的可能性,包括男性、女性和自称女权主义者的人
Prototype Theory
Prototype Theory
World Learning from text
World Learning from text
  • Human Reporting Bias
    • murdered 是 blinked 出现次数的十倍
    • 我们不倾向于提及眨眼和呼吸等事情
Human Reporting Bias
Human Reporting Bias
  • Human Reporting Bias
    • 人们写作中的行为、结果或属性的频率并不反映真实世界的频率,也不反映某一属性在多大程度上是某一类个体的特征。
    • 更多关于我们处理世界和我们认为非凡的东西的实际情况。这影响到我们学习的一切。
Human Reporting Bias
Human Reporting Bias
Human Reporting Bias in Data
Human Reporting Bias in Data
Human Reporting Bias in Data
Human Reporting Bias in Data
  • Data 数据
    • Reporting bias 报告偏见:人们分享的并不是真实世界频率的反映
    • Selection Bias 选择偏差:选择不反映随机样本
    • Out-group homogeneity bias 外群体同质性偏见:People tend to see outgroup members as more alike than ingroup members when comparing attitudes, values, personality traits, and other characteristics
  • Interpretation
    • Confirmation bias 确认偏见:倾向于寻找、解释、支持和回忆信息,以确认一个人先前存在的信念或假设
    • Overgeneralization 泛化过度:根据过于笼统和/或不够具体的信息得出结论
    • Correlation fallacy 相关性谬误:混淆相关性和因果关系
    • Automation bias 自动化偏差:人类倾向于喜欢来自自动化决策系统的建议,而不是没有自动化的相互矛盾的信息

3.Biases in Data

Biases in Data
Biases in Data
Biases in Data
Biases in Data
  • Selection Bias 选择偏差:选择不反映随机样本
Biases in Data
Biases in Data
  • Out-group homogeneity bias 外群体同质性偏见:在比较态度、价值观、个性特征和其他特征时,往往群体外的成员认为比群体内的成员更相似
  • 这有些难以理解:意思就是左边的四只猫之间是非常不同的,但是在狗的眼里他们是相同的
Biases in Data → Biased Data Representation
Biases in Data → Biased Data Representation
  • Biases in Data → Biased Data Representation
  • 你可能对你能想到的每一个群体都有适当数量的数据,但有些群体的表现不如其他群体积极。
Biases in Data → Biased Labels
Biases in Data → Biased Labels
  • Biases in Data → Biased Labels
  • 数据集中的注释将反映注释者的世界观

4.Biases in Interpretation

Biases in Interpretation
Biases in Interpretation
Biases in Interpretation
Biases in Interpretation
  • Biases in Interpretation
    • Confirmation bias 确认偏见:倾向于寻找、解释、支持和回忆信息,以确认一个人先前存在的信念或假设
Biases in Interpretation
Biases in Interpretation
  • Biases in Interpretation
    • Overgeneralization 泛化过度:根据过于笼统和/或不够具体的信息得出结论(相关:过拟合)
Biases in Interpretation
Biases in Interpretation
  • Biases in Interpretation
    • Correlation fallacy 相关性谬误:混淆相关性和因果关系
Biases in Interpretation
Biases in Interpretation
  • Biases in Interpretation
    • Automation bias 自动化偏差:人类倾向于喜欢来自自动化决策系统的建议,而不是没有自动化的相互矛盾的信息
Biases in Interpretation
Biases in Interpretation
  • 会形成反馈循环
  • 这被称为 Bias Network Effect 以及 Bias “Laundering”
Human data perpetuates human biases. As ML learns from human data, the result is a bias network effect.
Human data perpetuates human biases. As ML learns from human data, the result is a bias network effect.
  • Human data perpetuates human biases. As ML learns from human data, the result is a bias network effect.
  • 人类数据延续了人类的偏见。当ML从人类数据中学习时,结果是一个偏置网络效应。

5.BIAS = BAD ??

BIAS = BAD ??
BIAS = BAD ??
“Bias” can be Good, Bad, Neutral
“Bias” can be Good, Bad, Neutral
  • 统计以及 ML中的偏差
    • 估计值的偏差:预测值与我们试图预测的正确值之间的差异
    • “偏差”一词b(如y = mx + b)
  • 认知偏见
    • 确认性偏差、近因性偏差、乐观性偏差
  • 算法偏差
    • 对与种族、收入、性取向、宗教、性别和其他历史上与歧视和边缘化相关的特征相关的人的不公平、不公平或偏见待遇,何时何地在算法系统或算法辅助决策中体现出来”
amplify injustice
amplify injustice
  • 如何避免算法偏差,开发出不会放大差异的算法

6.Predicting Future Criminal Behavior

Predicting Future Criminal Behavior
Predicting Future Criminal Behavior
Predicting Policing
Predicting Policing
  • Predicting Future Criminal Behavior
    • 算法识别潜在的犯罪热点
    • 基于之前报道的犯罪的地方,而不是已知发生在哪里
    • 从过去预测未来事件
    • 预测的是逮捕的地方而不是犯罪的地方
Predicting Sentencing
Predicting Sentencing
  • Prater (白人)额定低风险入店行窃后,尽管两个武装抢劫;一次持械抢劫未遂。
  • Borden (黑色)额定高危后她和一个朋友(但在警察到来之前返回)一辆自行车和摩托车坐在外面。
  • 两年后,Borden没有被指控任何新的罪行。Prater因重大盗窃罪被判8年有期徒刑。
  • 系统默认认为黑人的犯罪风险高于白人

7.Automation Bias

Automation Bias
Automation Bias
Predicting Criminality
Predicting Criminality
  • 以色列启动 Faception
  • Faception是第一个科技领域的率先面市的,专有的计算机视觉机器学习技术分析人员和揭示他们的个性只基于他们的面部图像。
  • 提供专业的引擎从脸的形象识别“高智商”、“白领犯罪”、“恋童癖”,和“恐怖分子”。
  • 主要客户为国土安全和公共安全。
Predicting Criminality
Predicting Criminality
  • “Automated Inference on Criminality using Face Images” Wu and Zhang, 2016. arXiv
  • 1856个紧密裁剪的面孔的图像,包括“通缉犯”ID特定区域的照片
  • 存在确认偏差和相关性偏差

8.Selection Bias + Experimenter’s Bias +Confirmation Bias + Correlation Fallacy +Feedback Loops

Selection Bias + Experimenter’s Bias +Confirmation Bias + Correlation Fallacy +Feedback Loops
Selection Bias + Experimenter’s Bias +Confirmation Bias + Correlation Fallacy +Feedback Loops
Predicting Criminality - The Media Blitz
Predicting Criminality - The Media Blitz

9.(Claiming to) Predict Internal Qualities Subject To Discrimination

(Claiming to) Predict Internal Qualities Subject To Discrimination
(Claiming to) Predict Internal Qualities Subject To Discrimination
Predicting Homosexuality
Predicting Homosexuality
  • Wang and Kosinski, Deep neural networks are more accurate than humans at detecting sexual orientation from facial images, 2017.
  • “Sexual orientation detector” using 35,326 images from public profiles on a US dating website.
  • “与性取向的产前激素理论(PHT)相一致,男同性恋者和女同性恋者往往具有非典型的性别面部形态。”
Predicting Homosexuality
Predicting Homosexuality
  • 在自拍中,同性恋和异性恋之间的差异与打扮、表现和生活方式有关,也就是说,文化差异,而不是面部结构的差异
  • See our longer response on Medium, “Do Algorithms Reveal Sexual Orientation or Just Expose our Stereotypes?”
  • Selection Bias + Experimenter’s Bias + Correlation Fallacy

10.Selection Bias + Experimenter’s Bias + Correlation Fallacy

Selection Bias + Experimenter’s Bias + Correlation Fallacy
Selection Bias + Experimenter’s Bias + Correlation Fallacy

11.Measuring Algorithmic Bias

Measuring Algorithmic Bias
Measuring Algorithmic Bias
Evaluate for Fairness & Inclusion
Evaluate for Fairness & Inclusion
  • 评估公平性和包容性
    • 分类评估
      • 为每个创建(子组,预测)对。跨子组比较
    • 例如
      • 女性,面部检测
      • 男性,面部检测
Evaluate for Fairness & Inclusion: Confusion Matrix
Evaluate for Fairness & Inclusion: Confusion Matrix
Evaluate for Fairness & Inclusion
Evaluate for Fairness & Inclusion
  • “机会平等”公平准则:子组的 recall 是相等的
  • “预测平价”公平准则:子组的 precision 是相等
  • 选择评价指标的可接受的假阳性和假阴性之间的权衡

12.False Positives and False Negatives

False Positives and False Negatives
False Positives and False Negatives
False Positives Might be Better than False Negatives
False Positives Might be Better than False Negatives
  • False Positives Might be Better than False Negatives
    • Privacy in Images
    • Spam Filtering
False Negatives Might be Better than False Positives
False Negatives Might be Better than False Positives
AI Can Unintentionally Lead to Unjust Outcomes
AI Can Unintentionally Lead to Unjust Outcomes
  • 缺乏对数据和模型中的偏见来源的洞察力
  • 缺乏对反馈循环的洞察力
  • 缺乏细心,分类的评价
  • 人类偏见在解释和接受结果

13.It’s up to us to influence how AI evolves.

It’s up to us to influence how AI evolves.
It’s up to us to influence how AI evolves.
Begin tracing out paths for the evolution of ethical AI
Begin tracing out paths for the evolution of ethical AI

14.It’s up to us to influence how AI evolves. Here are some things we can do.

It’s up to us to influence how AI evolves. Here are some things we can do.
It’s up to us to influence how AI evolves. Here are some things we can do.

15.Data

Data
Data
Data Really, Really Matters
Data Really, Really Matters
  • 了解您的数据:偏差,相关性
  • 从类似的分布放弃单一训练集/测试集
  • 结合来自多个来源的输入
  • 对于困难的用例使用held-out测试集
  • 与专家讨论其他信号
Understand Your Data Skews
Understand Your Data Skews
Understand Your Data Skews
Understand Your Data Skews
  • 没有一个数据集是没有偏差的,因为这是一个有偏差的世界。重点是知道是什么偏差。

16.Machine Learning

Machine Learning
Machine Learning
Use ML Techniques for Bias Mitigation and Inclusion
Use ML Techniques for Bias Mitigation and Inclusion
  • Bias Mitigation 偏差缓解
    • 删除有问题的输出的信号
      • 刻板印象
      • 性别歧视,种族歧视,*-ism
      • 又称为“debiasing”
Use ML Techniques for Bias Mitigation and Inclusion
Use ML Techniques for Bias Mitigation and Inclusion
  • Inclusion
    • 添加信号所需的变量
      • 增加模型性能
      • 注意性能很差的子组或数据片

17.Multi-task Learning to Increase Inclusion

Multi-task Learning to Increase Inclusion
Multi-task Learning to Increase Inclusion
Multiple Tasks + Deep Learning for Inclusion: Multi-task Learning Example
Multiple Tasks + Deep Learning for Inclusion: Multi-task Learning Example
  • 与宾夕法尼亚大学WWP合作
  • 直接与临床医生合作
  • 目标
    • 系统警告临床医生如果企图自杀迫在眉睫
    • 几个训练实例可用时诊断的可行性
  • Benton, Mitchell, Hovy. Multi-task learning for Mental Health Conditions with Limited Social Media Data. EACL, 2017.
Multiple Tasks + Deep Learning for Inclusion: Multi-task Learning Example
Multiple Tasks + Deep Learning for Inclusion: Multi-task Learning Example
  • 内部数据
    • 电子健康记录
      • 病人或病人家属提供
      • 包括心理健康诊断,自杀企图,竞赛
    • 社交媒体数据
  • 代理数据
    • Twitter 媒体数据
    • 代理心理健康诊断中使用自称诊断
      • 我被诊断出患有 X
      • 我试图自杀
Single-Task: Logistic Regression, Deep Learning
Single-Task: Logistic Regression, Deep Learning
Multiple Tasks with Basic Logistic Regression
Multiple Tasks with Basic Logistic Regression
Multi-task Learning
Multi-task Learning
Improved Performance across Subgroups
Improved Performance across Subgroups
Reading for the masses….
Reading for the masses….

18.Adversarial Multi-task Learning to Mitigate Bias

Adversarial Multi-task Learning to Mitigate Bias
Adversarial Multi-task Learning to Mitigate Bias
Multitask Adversarial Learning
Multitask Adversarial Learning
Equality of Opportunity in Supervised Learning
Equality of Opportunity in Supervised Learning
  • 考虑到真正正确的决策,分类器的输出决策应该在敏感特征之间是相同的。

19.Case Study: Conversation AI Toxicity

Case Study: Conversation AI Toxicity
Case Study: Conversation AI Toxicity

19.1 Measuring and Mitigating Unintended Bias in Text Classification

Measuring and Mitigating Unintended Bias in Text Classification
Measuring and Mitigating Unintended Bias in Text Classification

19.2 Conversation-AI & Research Collaboration

Conversation-AI & Research Collaboration
Conversation-AI & Research Collaboration
  • Conversation-AI
    • ML 提高大规模在线对话
  • Research Collaboration
    • Jigsaw, CAT, several Google-internal teams, and external partners (NYTimes, Wikimedia, etc)

19.3 Perspective API

Perspective API
Perspective API

19.4 Unintended Bias

Unintended Bias
Unintended Bias

19.5 Bias Source and Mitigation

Bias Source and Mitigation
Bias Source and Mitigation
  • 偏见造成的数据不平衡
    • 经常袭击了有毒的身份所占比例评论
    • 长度问题
  • 添加维基百科文章中假定的无毒数据来修复这种不平衡
    • 原始数据集有127820个例子
    • 4620个补充的无毒例子

19.6 Measuring Unintended Bias - Synthetic Datasets

Measuring Unintended Bias - Synthetic Datasets
Measuring Unintended Bias - Synthetic Datasets
  • 挑战与真实数据
    • 现有数据集是小 and/or 有错误的相关性
    • 每个例子是完全独特的
  • Approach:"bias madlibs”:一个综合生成的模板化数据集进行评估

19.7 Assumptions

Assumptions
Assumptions
  • 数据集是可靠的
    • 和产品相似的分布
    • 忽略注释器偏见
    • 没有因果分析

19.8 Deep Learning Model

Deep Learning Model
Deep Learning Model
  • 深度学习模型
  • CNN 架构
  • 预训练的 GloVe 嵌入
  • Keras 实现

19.9 Measuring Model Performance

Measuring Model Performance
Measuring Model Performance

19.10 Measuring Model Performance

Measuring Model Performance
Measuring Model Performance

19.11 Types of Bias

Types of Bias
Types of Bias
  • Low Subgroup Performance
    • 模型在子组注释上的性能比在总体注释上差
  • Metric : Subgroup AUC
Types of Bias
Types of Bias
  • Subgroup Shift (Right)
    • 该模型系统地对来自子组的评价打分更高
    • Metric: BPSN AUC
    • (Background Positive Subgroup Negative)
  • Subgroup Shift (Left)
    • 该模型系统地对来自子组的评价打分较低
    • Metric: BNSP AUC
    • (Background Negative Subgroup Positive)

19.12 Results

Results
Results

20.Release Responsibly

Release Responsibly
Release Responsibly
Model Cards for Model Reporting
Model Cards for Model Reporting
  • 目前还没有模型发布时报告模型效果的 common practice
  • What It Does
    • 一份关注模型性能透明度的报告,以鼓励负责任的人工智能的采用和应用
  • How It Works
    • 这是一个容易发现的和可用的工件在用户旅程中重要的步骤为一组不同的用户和公共利益相关者
  • Why It Matter
    • 它使模型开发人员有责任发布高质量和公平的模型
    • Intended Use, Factors and Subgroups
Intended Use, Factors and Subgroups, Metrics and Data, Considerations, Recommendations
Intended Use, Factors and Subgroups, Metrics and Data, Considerations, Recommendations
Disaggregated Intersectional Evaluation
Disaggregated Intersectional Evaluation

21.Moving from majority representation... to diverse representation... for ethical AI

Moving from majority representation... to diverse representation... for ethical AI
Moving from majority representation... to diverse representation... for ethical AI

22.Thanks

23.视频教程

可以点击 B站 查看视频的【双语字幕】版本

video(video-xLF8OkHI-1652089903151)(type-bilibili)(url-https://player.bilibili.com/player.html?aid=376755412&page=19)(image-https://img-blog.csdnimg.cn/img_convert/348c054984ca03db39d4b43924e02302.png)(title-【双语字幕+资料下载】斯坦福CS224n | 深度学习与自然语言处理(2019·全20讲))

24.参考资料

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
视频逐帧读取并保存至指定文件夹(opencv之python描述)
frame = video.read()
用户4908836
2020/04/14
1.9K0
打破次元壁,让游戏角色在指尖跳舞,简易的 AR 教程
作为一个天涯明月刀游戏的端游老玩家,天刀的画质是没的说的。玩天刀的七年,我唯一最大的收获就是拐了女朋友回家。至此,双十一来临之际,我紧急把之前想写的教程赶了出来。为了让单身的少侠可以在现实世界有自己游戏角色的陪伴,不再那么孤单,我可真是操碎了心,半夜把网页赶了出来。其实单身和非单身的双十一区别不是很大,只是吃土的方式不一样罢了。话不多说,我们先来看下效果:
桑榆肖物
2022/11/18
1K0
打破次元壁,让游戏角色在指尖跳舞,简易的 AR 教程
python将视频抽帧的的多种方式
最近有一个需求是将视频抽取为一个个的帧图片,使用python很方便实现,而且有多种方式;
JQ实验室
2022/09/29
3.3K0
使用 Dify 和 AI 大模型理解视频内容:Qwen 2 VL 72B
本篇作为第一篇内容,以昨天出圈的“黑神话悟空制作人采访视频”为例,先来聊聊经常被国外厂商拿来对比的国产模型:千问系列,以及它的内测版。
soulteary
2024/08/27
1.8K0
使用 Dify 和 AI 大模型理解视频内容:Qwen 2 VL 72B
tf27: Deep Dream—应用到视频
本文介绍了如何将Deep Dream技术应用于视频上,通过使用TensorFlow和Python实现Deep Dream算法,从而对视频进行逐帧处理,产生具有梦幻效果的视频。同时,也介绍了一些相关的工具和库,如ffmpeg、numpy、scipy、scikit-learn等,这些工具可以帮助我们更好地实现Deep Dream算法。此外,还介绍了一些Deep Dream算法的应用,如图像风格转换、图像修复、图像超分辨率等。最后,也介绍了一些实现Deep Dream算法的技巧和最佳实践,如调整网络结构、选择合适的预训练模型、使用预训练权重等。通过本文的学习,我们可以更好地理解Deep Dream算法,并能够将其应用于实际的视频处理任务中。"
MachineLP
2018/01/09
6840
Python实现5毛钱特效
Python牛已经不是一天两天的事了,但是我开始也没想到,Python能这么牛。前段时间接触了一个批量抠图的模型库,而后在一些视频中找到灵感,觉得应该可以通过抠图的方式,给视频换一个不同的场景,于是就有了今天的文章。
ZackSock
2020/04/16
1.1K0
使用Python-去除视频背景
no怕不了木
2023/08/08
8410
使用Python-去除视频背景
我用 Python 做了个小仙女代码蹦迪视频
https://blog.csdn.net/hhladminhhl/article/details/118463344 (AirPython整理)
昱良
2021/07/27
8070
视频2图片video_to_images
发布者:全栈程序员栈长,转转请注明出处:https://javaforall.cn/2158.html原文链接:
全栈程序员站长
2021/04/07
4390
python带你剪辑视频
嗯,好久没写文章了。因为最近没有熬夜了,天天背电脑也很辛苦。 工作嘛,手工为主,没有啥技术成长,也没啥好写的。 疫情期间,总听到有人叹气,总听到抖音里面“我太难了”。
赵云龙龙
2020/08/13
3.1K0
飞桨PaddleHub带你环游世界,快来试试Python一键视频抠图吧
在视频创作过程中,有时会遇到人像抠图的需求,最一般的做法是使用PR、AE等工具将视频中的每一帧图像手动抠图。这么繁琐的步骤在理工男面前简直是不可存在的,那么有什么简单的方法能快速抠图吗?当然有啦,接下来给大家介绍如何使用PaddleHub一键视频人像抠图。
用户1386409
2020/04/22
1.8K0
Python实现高级电影特效
前几天写了个实现特效的博客,感觉有点差强人意,只是简简单单的换背景应用场景不是非常多,今天就来实现一个更加复杂的特效“影分身”。下面有请我们本场的主演,坤制作人为我们表演他拿手的鸡你太美。
ZackSock
2020/05/18
1.5K0
Python实现高级电影特效
定时自动发布工具,抖音快手小红书哔哩哔哩,作品视频发布批量软件【python】
成品下载地址:https://www.pan38.com/yun/share.php?code=JCnzE 提取密码:1112
用户11744395
2025/07/13
1870
使用Python进行网站数据爬取和视频处理
在互联网时代,我们经常需要从网站上获取数据并进行分析或处理。有时候,我们还需要对视频数据进行一些操作,比如剪辑、转码、合成等。Python是一门非常适合做数据分析和视频处理的编程语言,它有很多强大的库和工具可以帮助我们完成这些任务。本文将介绍如何使用Python的requests模块爬取网站数据并进行视频处理的方法和步骤。
jackcode
2023/08/10
6760
使用Python进行网站数据爬取和视频处理
python 用opencv接口把视频逐帧转化为图片
好了,接下来我要做一个实际的深度学习图像分割的小项目,项目内容是从一堆拍摄海面的图片中将白浪花分割出来,这个项目的分割只对白浪花感兴趣,所以最后应该是01分割,非黑即白。目前收到800G左右的数据,视频格式,每段大约50分钟。首先要做的就是从这些视频中把每一帧的图片导出来,变成图片。
狼啸风云
2020/07/27
3.4K2
[1214]基于Python实现视频去重
一款基于Python语言的视频去重复程序,它可以根据视频的特征参数,将重复的视频剔除,以减少视频的存储空间。它的基本原理是:首先利用Python语言对视频文件进行解析,提取视频的特征参数,如帧率、码率等;然后根据特征参数,生成视频的哈希值;最后,将每个视频的哈希值进行对比,如果哈希值相同,则表示视频内容相同,可以将其中一个视频剔除,以节省存储空间。
周小董
2023/10/10
7430
图片与视频互转(python)
usage example: python video2jpg.py --video 1574393815.avi --out_dir 1574393815
用户4363240
2019/12/08
2K0
模型实操 | 从零开始,用英伟达T4、A10训练小型文生视频模型
OpenAI 的 Sora、Stability AI 的 Stable Video Diffusion 以及许多其他已经发布或未来将出现的文本生成视频模型,是继大语言模型 (LLM) 之后 2024 年最流行的 AI 趋势之一。
ShuYini
2024/07/04
3000
模型实操 | 从零开始,用英伟达T4、A10训练小型文生视频模型
FFmpeg 在爬虫中的应用案例:流数据解码详解
在大数据时代,网络爬虫技术成为了数据采集的重要手段。FFmpeg 是一个强大的多媒体处理工具,广泛应用于音视频处理领域。在本篇文章中,我们将详细讲解如何将 FFmpeg 应用于网络爬虫技术中,以解码和采集小红书短视频为案例。同时,文章将提供具体的代码示例,包括如何使用代理IP、设置User-Agent和Cookie等技术,提升爬虫的采集成功率。
jackcode
2024/07/23
2640
FFmpeg 在爬虫中的应用案例:流数据解码详解
(强烈推荐)移动端音视频从零到上手(下)
封装就是把编码器生成的音频,视频同步以生成我们肉眼可见,耳朵可听并且看到的与听到的是同步的视频文件.即封装后生成一个容器,来存放音频和视频流以及一些其他信息(比如字幕, metadata等).
音视频开发进阶
2019/07/31
1.2K0
(强烈推荐)移动端音视频从零到上手(下)
推荐阅读
相关推荐
视频逐帧读取并保存至指定文件夹(opencv之python描述)
更多 >
LV.3
这个人很懒,什么都没有留下~
目录
  • 1.Bias in the Vision and Language of Artificial Intelligence
  • 2.Prototype Theory
  • 3.Biases in Data
  • 4.Biases in Interpretation
  • 5.BIAS = BAD ??
  • 6.Predicting Future Criminal Behavior
  • 7.Automation Bias
  • 8.Selection Bias + Experimenter’s Bias +Confirmation Bias + Correlation Fallacy +Feedback Loops
  • 9.(Claiming to) Predict Internal Qualities Subject To Discrimination
  • 10.Selection Bias + Experimenter’s Bias + Correlation Fallacy
  • 11.Measuring Algorithmic Bias
  • 12.False Positives and False Negatives
  • 13.It’s up to us to influence how AI evolves.
  • 14.It’s up to us to influence how AI evolves. Here are some things we can do.
  • 15.Data
  • 16.Machine Learning
  • 17.Multi-task Learning to Increase Inclusion
  • 18.Adversarial Multi-task Learning to Mitigate Bias
  • 19.Case Study: Conversation AI Toxicity
    • 19.1 Measuring and Mitigating Unintended Bias in Text Classification
    • 19.2 Conversation-AI & Research Collaboration
    • 19.3 Perspective API
    • 19.4 Unintended Bias
    • 19.5 Bias Source and Mitigation
    • 19.6 Measuring Unintended Bias - Synthetic Datasets
    • 19.7 Assumptions
    • 19.8 Deep Learning Model
    • 19.9 Measuring Model Performance
    • 19.10 Measuring Model Performance
    • 19.11 Types of Bias
    • 19.12 Results
  • 20.Release Responsibly
  • 21.Moving from majority representation... to diverse representation... for ethical AI
  • 22.Thanks
  • 23.视频教程
  • 24.参考资料
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档