Kategori: Python
Flask
Django
OpenCV

Başlıklar
input(), print()
Lists
Tuples, Dictioneries
Conditions, if, elif, else
for loop and in keyword
for loop and range() function
List Comprehension
Functions in Python, lambda, global
Modules, math, random, time
Object Oriented, Classes
Object Oriented, Inheritance, super()
Exception Handling, try, except, finally
File Operations in Python, open()
File Operations in Python, read(), readlines()
File Operations in Python, tell(), seek()
Numerical and String Operations
Set and List Operations
SQL Connection and Data Manipulation
Advanced Functions, args, kwargs
Advanced Functions, Decorators, Nested Functions
Iterator
Generators, yield
Time Operations, datetime module
os and sys modules
Scraping Websites with BeatifulSoup
Getting IMDB Top 250 Movies with BeautifulSoup
Mail Operations with smtp
Image Manipulation, Pillow
PyQt5, Adding Button, Label and Image
PyQt5, Layouts, Adding Functions
PyQt5, QLineEdit
PyQt5, User Login
PyQt5, User Login with Database Connection
PyQt5, Usage of Checkbox
PyQt5, Usage of RadioButton
PyQt5, Creating Menu and Shortcuts
PyQt5, QTextEdit, QFileDialog, Notepad Project
PyQt5, Notepad Application with Menu
PyQt5, Designing Forms with QtDesigner
NumPy, Arrays
NumPy, Indexes, Filters
NumPy, Operators and Array Operations
Pandas, Series
Pandas, DataFrames
Pandas, MultiIndexes
Pandas, Missing Values, NaN
Pandas, Importing and Exporting Data
Pandas, Operations, groupby, join, merge
Matplotlib, Creating and Designing Graphs
Creating Executable Files
Selenium Installation, First Project, eksisozluk
Selenium, Random Pages, Entries from eksisozluk
Selenium, Instagram Auto Login
Selenium, Writing Instagram Followers to a File
Scrapy, Installation
Scrapy, Creating Spyders, quotestoscrape
Scrapy, Selectors, XPath, CSS
Scrapy, Writing Data to Json File
Scrapy, Following Links
Scrapy, kitapyurdu top100
Scrapy, sinemalar.com top1000
Scrapy, IMDB top250
map(), reduce(), filter(), zip(), enumerate()

map(), reduce(), filter(), zip(), enumerate()

Kategori: Python, 15 Eylül 2019

map(), reduce(), filter(), zip(), enumerate()

Bu yazımda Python'da gömülü fonksiyonları inceleyeceğiz. İlk olarak map() fonksiyonu ile başlayalım. map() fonksiyonu ile listelerin elemanlarına yazdığımız fonksiyonları uygulayabiliriz:

 def double(x): return x * 2 list_1 = [1, 2, 3, 4, 5, 6] result = list(map(double, list_1)) print(result) >> [2, 4, 6, 8, 10, 12] 
Sadece ... Devamını Oku


JanFranco | 18 | 0 | 4 min read

Scrapy, IMDB top250

Kategori: Python, 15 Eylül 2019

Scrapy, IMDB top250

Bu yazımda IMDB sitesi üzerinden en iyi 250 filmi alacağız. Bunun için ilk olarak linkleri çekelim. Daha sonra bu linklerde gezinip filmlerin ismini, türünü, uzunluğunu, yapım yılını ve yerini çekeceğiz:

 import scrapy class Movies(scrapy.Spider): name = "top250" start_urls = [ 'https://www.imdb.com/chart/top?ref_=nv_mv_250' ] def parse(self, response): with open("movie-urls.txt", mode="a", ...
			
Devamını Oku


JanFranco | 19 | 0 | 9 min read

Scrapy, sinemalar.com top1000

Kategori: Python, 15 Eylül 2019

Scrapy, sinemalar.com top1000

Bu yazımda sinemalar.com web sitesi üzerindeki kullanıcı yorumlarına göre sıralanmış ilk 1000 filmi çekip txt formatında kaydedeceğiz. Filmin adı, türü, süresi ve puanı kaydedeceğimiz bilgiler arasında olacak:

 import scrapy class QuotesSpider(scrapy.Spider): name = "top1000" start_urls = [ 'https://www.sinemalar.com/en-iyi-filmler/' ] count = 1 def parse(self, response): with open("top1000.txt", mode="a", ...
			
Devamını Oku


JanFranco | 15 | 0 | 50 min read

Scrapy, kitapyurdu top100

Kategori: Python, 14 Eylül 2019

Scrapy, kitapyurdu top100

kitapyurdu.com adresindeki en popüler 100 kitabı çekelim. https://www.kitapyurdu.com/cok-satan-kitaplar/haftalik/1.html adresi ile başlayacağız, her adımda sayfadaki bir sonraki sayfanın linkini çekip o adrese gideceğiz. Sayfa sayısı 5 olduğunda programı sonlandıracağız:

 import scrapy class QuotesSpider(scrapy.Spider): name = "top100" page_count = 0 start_urls = [ 'https://www.kitapyurdu.com/cok-satan-kitaplar/haftalik/1.html' ] def parse(self, response): name = ...
			
Devamını Oku


JanFranco | 22 | 0 | 2 min read

Scrapy, Following Links

Kategori: Python, 14 Eylül 2019

Scrapy, Following Links

Bu yazımda quotes.toscrapy.com adresinden veri çekeceğiz, her işlem sonunda bir sonraki sayfaya geçeceğiz ve veri çekmeye devam edeceğiz. quotes.py dosyasını aşağıdaki şekilde düzenleyelim:

 import scrapy class QuotesSpider(scrapy.Spider): name = "quotes" file = open("quotes.txt", "a", encoding="utf-8") start_urls = [ 'http://quotes.toscrape.com/page/1/' ] def parse(self, response): for quote in response.css("div.quote"): title ...
			
Devamını Oku


JanFranco | 19 | 0 | 2 min read
Sayfa 1 next last »