I went from 0 to 100K followers in 12 months.

Here are the 10 best no-code tools to help you grow your audience:

1. Typefully

The best tool to write tweets and threads with focus and without distractions.

https://t.co/MaEzm4vh4C
2. BrandBird

Turn your screenshots into captivating graphics aligned with your branding to help you boost engagement.

https://t.co/x1wacmNugx
3. Bio Link

A free and elegant link in bio for your Twitter, Instagram, TikTok, and other socials.

https://t.co/HsUY8MDwN3
4. TweetHunter

An all-in-one Twitter growth tool, designed to help you grow and monetize your Twitter audience.

https://t.co/eCOKjcxUDv
5. Twemex

A browser extension that automatically surfaces a user's most popular tweets.

https://t.co/sR7gHjNsW5
6. TweetDeck

A personal dashboard to manage multiple Twitter accounts, and view multiple timelines in one interface.

https://t.co/5RdG2E7yMe
7. Twitter Analytics

Measure engagement and learn how to make your Tweets more successful.

https://t.co/hSUsTnFmty
8. Typeshare

A digital writing platform to launch your social blog and write once, publish everywhere.

https://t.co/R2Aauow58e
9. Queue

Schedule tweets & threads from Notion, with content calendar, posting schedule and more.

https://t.co/2Vii6OxJ6U
10. Black Magic

A browser extension that provides powerful real-time analytics and tools to grow your audience.

https://t.co/jBeOWqvDPn
10 best no-code tools to grow your audience on Twitter:

1. @typefully
2. @BrandBirdApp
3. @biodotlink
4. @TweetHunterIO
5. @TwemexApp
6. @TweetDeck
7. @Twitter Analytics
8. @typeshare_co
9. @queue_so
10. @blackmagic_so
@typefully @BrandBirdApp @biodotlink @TweetHunterIO @TwemexApp @TweetDeck @Twitter @typeshare_co @queue_so @blackmagic_so If you found this thread helpful, follow me @heyeaslo for more.

Retweet the first tweet to help share these awesome Twitter tools: https://t.co/nK6DZop88D

More from Easlo

Twitter is free university.

But 98.8% missed out on the best content on this platform.

Here are the best threads from this month:

Topic: Turn Twitter into a crazy valuable


Topic: Easy trick for telling better


Topic: How to Create More


Topic: 20 things about building a

More from All

#தினம்_ஒரு_திருவாசகம்
தொல்லை இரும்பிறவிச் சூழும் தளை நீக்கி
அல்லல் அறுத்து ஆனந்தம் ஆக்கியதே – எல்லை
மருவா நெறியளிக்கும் வாதவூர் எங்கோன்
திருவாசகம் என்னும் தேன்

பொருள்:
1.எப்போது ஆரம்பித்தது என அறியப்படமுடியாத தொலை காலமாக (தொல்லை)

2. இருந்து வரும் (இரும்)


3.பிறவிப் பயணத்திலே ஆழ்த்துகின்ற (பிறவி சூழும்)

4.அறியாமையாகிய இடரை (தளை)

5.அகற்றி (நீக்கி),

6.அதன் விளைவால் சுகதுக்கமெனும் துயரங்கள் விலக (அல்லல் அறுத்து),

7.முழுநிறைவாய்த் தன்னுளே இறைவனை உணர்த்துவதே (ஆனந்த மாக்கியதே),

8.பிறந்து இறக்கும் காலவெளிகளில் (எல்லை)

9.பிணைக்காமல் (மருவா)

10.காக்கும் மெய்யறிவினைத் தருகின்ற (நெறியளிக்கும்),

11.என் தலைவனான மாணிக்க வாசகரின் (வாதவூரெங்கோன்)

12.திருவாசகம் எனும் தேன் (திருவா சகமென்னுந் தேன்)

முதல்வரி: பிறவி என்பது முன்வினை விதையால் முளைப்பதோர் பெருமரம். அந்த ‘முன்வினை’ எங்கு ஆரம்பித்தது எனச் சொல்ல இயலாது. ஆனால் ‘அறியாமை’ ஒன்றே ஆசைக்கும்,, அச்சத்துக்கும் காரணம் என்பதால், அவையே வினைகளை விளைவிப்பன என்பதால், தொடர்ந்து வரும் பிறவிகளுக்கு, ‘அறியாமையே’ காரணம்

அறியாமைக்கு ஆரம்பம் கிடையாது. நமக்கு ஒரு பொருளைப் பற்றிய அறிவு எப்போதிருந்து இல்லை? அதைச் சொல்ல முடியாது. அதனாலேதான் முதலடியில், ஆரம்பமில்லாத அஞ்ஞானத்தை பிறவிகளுக்குக் காரணமாகச் சொல்லியது. ஆனால் அறியாமை, அறிவின் எழுச்சியால், அப்போதே முடிந்து விடும்.
How can we use language supervision to learn better visual representations for robotics?

Introducing Voltron: Language-Driven Representation Learning for Robotics!

Paper: https://t.co/gIsRPtSjKz
Models: https://t.co/NOB3cpATYG
Evaluation: https://t.co/aOzQu95J8z

🧵👇(1 / 12)


Videos of humans performing everyday tasks (Something-Something-v2, Ego4D) offer a rich and diverse resource for learning representations for robotic manipulation.

Yet, an underused part of these datasets are the rich, natural language annotations accompanying each video. (2/12)

The Voltron framework offers a simple way to use language supervision to shape representation learning, building off of prior work in representations for robotics like MVP (
https://t.co/Pb0mk9hb4i) and R3M (https://t.co/o2Fkc3fP0e).

The secret is *balance* (3/12)

Starting with a masked autoencoder over frames from these video clips, make a choice:

1) Condition on language and improve our ability to reconstruct the scene.

2) Generate language given the visual representation and improve our ability to describe what's happening. (4/12)

By trading off *conditioning* and *generation* we show that we can learn 1) better representations than prior methods, and 2) explicitly shape the balance of low and high-level features captured.

Why is the ability to shape this balance important? (5/12)

You May Also Like