网络爬虫进化史,原来你是这样的爬虫:第1期 2020年的一个平淡的一天,累了一天的你打开手机,发现满朋友圈的“手把手教你写Python爬虫爬取小姐姐照片”广告,有没有疑惑过爬虫究竟是个啥?怎么突然就这么火了?接下来这个系列的文章将会告诉你,爬虫是如何从一只小虫,变成布满整个互联网、在所有人面前张牙舞爪的可怕巨虫的。 2021-02-21 技术杂文 爬虫历史系列 爬虫
系列博客的目录 目录 密码学 对称密码学和非对称密码学简介 - Kamino’s Blog SSL/TLS协议原理 - Kamino’s Blog Https协议的安全性原理 - Kamino’s Blog 中国剩余定理学习笔记 - Kamino’s Blog Feistel密码结构与DES加密算法 - Kamino’s Blog TEA加密算法 - Kamino’s Blog Diffie Hellman 密钥 2022-04-03
论文笔记 Exploring Temporal Concurrency for Video-Language Representation Learning 人大高瓴人工智能学院+京东的一篇ICCV23,23.9月发布,与同团队的一篇CVPR2023 HIghlight前作联系紧密,本文也会进行介绍。这篇文章主要提出了两个Loss,分别探索长视频模态间的时序共现性和模态内部的动态演变性,从而进行更好的多模态表征学习。 2023-12-06 论文笔记 Multimodal Learning Stochastic Process Video-Language Learning Long Video Representation Learning
论文笔记 LanguageBind Extending Video-Language Pretraining to N-modality by Language-based Semantic Alignment 北大主做的一个ImageBind的升级版,论文最早在23年10月挂载Arxiv上,并在之后有持续的更新。论文解决的问题与ImageBind类似,就是通过类似CLIP的方式,进行N种模态的对比学习,将不同模态统一到同一个语义空间。 2023-12-05 论文笔记 Multimodal Learning CLIP Contrastive Learning LanguageBind VIDAL-10M
论文笔记 ImageBind One Embedding Space To Bind Them All Meta的FAIR出的一篇CVPR2023 Highlight,在当时一出就受到广泛的关注,现在在大半年之后我才开始认真看一下。基本来说,这篇论文提出了一个基于对比学习的、CLIP架构的多模态模型,统一了Image、Video、Text、Audio、Depth、Thermal、IMU七种模态,并涌现了Zero-shot的能力。 2023-12-04 论文笔记 Multimodal Learning CLIP Contrastive Learning ImageBind
论文笔记 Video Event Restoration Based on Keyframes for Video Anomaly Detection 西北工业大学吴鹏组和西电的一篇CVPR2023论文,做无监督的视频异常检测。文章提出了一种Video Event Restoration的训练方式,并提出了以Swin+U-Net为主的USTN-DSC网络,在Ped2、Avenue、ShanghaiTech上获得优秀的成绩。 2023-11-20 论文笔记 Video Anomaly Detection USTN-DSC unsupervised
论文笔记 UnLoc A Unified Framework for Video Localization Tasks Google的一篇ICCV 2023论文,除开共同一作的二作是VGG组的Arsha Nagrani。这篇论文提出了一个通用的单阶段的方法UnLoc,来做多种视频定位任务,包括片段检索、动作定位、动作分割,并且利用了CLIP的视觉和文本侧。 2023-11-06 论文笔记 CLIP UnLoc Moment Retrieval Temporal Action Localization Action Segmentation ActionFormer
论文笔记 VidChapters-7M Video Chapters at Scale Video Captioning VGG组的一篇NeurIPS 2023的Dataset&Benchmark赛道的论文,二作有过多个相关领域的重要工作。文章提出了一个新的大规模数据集VidChapters-7M,包含82万个视频和7M个视频章节,支持Video chapter generation、video chapter generation with ground-truth boundaries、video chapter 2023-11-06 论文笔记 Video Captioning VidChapters-7M Video Chapter Generation
论文笔记 Vid2Seq Large-Scale Pretraining of a Visual Language Model for Dense Video Captioning 该文章提出了一个用来做Dense Video Captioning的通用大规模预训练模型Vid2Seq,走了模仿语言模型的路子,通过输出特殊的Token来同时预测事件时间范围以及事件描述。模型不大,但是在YT-Temporal-1B上使用ASR文本和视频预训练,然后在好几个下游任务上测试,测试的时候同时输入视频和语音转录文本,输出带有时间戳的文本。 2023-11-05 论文笔记 Video Captioning Dense Video Captioning Vid2Seq