PHP 2020. 6. 16. 18:22


반응형

session을 database로 사용할경우

 

session:table 아티즌 명령어를 통해서 이 마이그레이션을 생성할 수 있습니다

php artisan session:table

php artisan migrate

기본 Schema  아래와 같다

Schema::create('sessions', function ($table) {
    $table->string('id')->unique();
    $table->integer('user_id')->nullable();
    $table->string('ip_address', 45)->nullable();
    $table->text('user_agent')->nullable();
    $table->text('payload');
    $table->integer('last_activity');
});

.env 파일을 추가/수정해주세요.

SESSION_DRIVER=database
SESSION_LIFETIME=120

 

사용법

#데이터저장
$request->session()->put('key', 'value');


#데이터 삭제하기
$request->session()->forget('key');

$request->session()->flush();

#저장명령어꼭해주세요
 Session::save(); 
 
//이런방법 저런 방법
#세션에 아이템 저장
Session::put('key', 'value');

#배열 세션에 값 푸쉬
Session::push('user.teams', 'developers');

세션에서 아이템 조회
$value = Session::get('key');

 Session::save(); 
저장을 해야 다음 페이지에서 사용할수 있어요.

세션이 페이지를 벗어나 저장이 되지 않을때

 use Session;

 
 Session::save(); 
반응형

'PHP' 카테고리의 다른 글

Laravel flysystem-aws-s3-v3 확장  (0) 2020.06.16
[PHP] 텔레그램 api로 알림 받기  (0) 2020.06.15
PHP Composer 설치 및 사용법  (0) 2020.06.05
라라벨 orm query log 남기기  (0) 2020.05.21
posted by 파인진
:
PHP 2020. 6. 16. 18:08


반응형

AWS S3 연결에 필요한 소스 코드를 확장 시켜 줘야 합니다.

composer require league/flysystem-aws-s3-v3

아래와 같이 결과가 수행됩니다.

2.s3 버짓 설정

버킷 생성시에는 이름 및 지역, 옵션 구성, 권한 설정, 검토의 순서로 진행되는데 다른 부분은 넘어가고 3 권한 설정에서 모든 퍼블릭 엑세스 차단을 해제해 주세요.

3.AWS 의 IAM 키생성

콘솔에 들어가서 s3를 사용할수 있는 엑세스키 생성

4.연동

 .env 파일에 다음 값들을 추가해주세요.

AWS_ACCESS_KEY_ID=AGXAVIK5EY6TCTTS3I4L				                //IAM ACCESS KEY
AWS_SECRET_ACCESS_KEY=Awa8X1/038B6AXe1/EiDBzE9haIyfwGECgHXzABe	    //IAM SECRET KEY
AWS_DEFAULT_REGION=ap-northeast-2		                         	//REGION CODE (링크 참조)
AWS_BUCKET=test-s3-buket               			                    //버킷 명

한국(서울)의 리전 코드값은, ap-northeast-2 입니다.

 

5.저장코드

$fileSize = $request::file($uploadName) Illuminate\Support\Facades\Request 를 이용하며, 파일의 정보를 가져옵니다.

getClientSize() = 파일 용량 반환를 반환합니다.

getClientOriginalName = 파일 명 반환를 반환합니다.

getClientOriginalExtension = 파일 확장자를 반환합니다.

Storage::disk('s3')->put(...) 는 파일을 직접 업로드 합니다.

 

IAM설정,S3권한설정은 다양합니다. 비교적 간단하게 설정하였고 명령어는 많다.

 

-복사, 삭제, 이동, 이름변경
   
Storage::disk('s3')->put('tmp/'.$file, file_get_contents($file) );//추가
Storage::disk('s3')->delete('tmp/' . $file);//삭제
Storage::disk('s3')->files('tmp');//리스트
Storage::disk('s3')->get($file);//내용
Storage::disk('s3')->url($file);//인터넷 주소

Storage::size('file1.jpg');//크기 조회

Storage::copy('old/file1.jpg', 'new/file1.jpg');//복사
Storage::move('old/file1.jpg', 'new/file1.jpg');//이동

Storage::files($directory);//파일 목록
Storage::allFiles($directory);//하위 폴더 포함

Storage::directories($directory);//폴더 목록
Storage::allDirectories($directory);

Storage::makeDirectory($directory);//폴더 만들기
Storage::deleteDirectory($directory);//폴더 삭제

//참고
http://stayregular.net/blog/how-to-upload-images-using-amazon-s3-and-laravel
https://dzone.com/articles/how-to-upload-files-to-amazon-s3-using-laravel

 

How to Upload Files to Amazon S3 Using Laravel - DZone Cloud

Take a look at this tutorial that shows you how you can leverage the scalabilty of cloud with powerful development capabilities of the Laravel framework.

dzone.com

 

How to Upload Images using Amazon S3 and Laravel

Stay Regular Media is a team of artists with decades of combined experience in the design and cannabis industries.

stayregular.net

 

반응형

'PHP' 카테고리의 다른 글

Laravel HTTP 세션  (0) 2020.06.16
[PHP] 텔레그램 api로 알림 받기  (0) 2020.06.15
PHP Composer 설치 및 사용법  (0) 2020.06.05
라라벨 orm query log 남기기  (0) 2020.05.21
posted by 파인진
:
인공지능 2020. 6. 16. 15:17


반응형
반응형

'인공지능' 카테고리의 다른 글

인공지능(AI) 언어모델 ‘BERT(버트)'는 무엇인가  (0) 2020.06.16
posted by 파인진
:
나만그런가? 2020. 6. 16. 15:12


반응형

아주 먼.... 까지는 아니어도 초등학생 시절.
하루 일과 중 하나가 세계여행.. 부르마블~
별장도 짓고 빌딩도 짓고.. 호텔도 짓고..

서울 걸리면 가장 비싼통행료 200만원을 내야한다. 순식간에 게임 역전!



게임 때마다 돈이 모자라
동생에게 빚을 지며 여행했더랬지...
남아 있는 빚은 작은 칠판에 적어놓고는 ..
다음 게임에서 조금씩 갚아갔던 기억 ..

그때의 게임판 그대로인 부르마블을 보고
얼마나 신기했던지..
지금은 우리 아이들이 가끔 꺼내어 게임을 이어간다.

 

반응형

'나만그런가?' 카테고리의 다른 글

나노블럭  (0) 2020.06.23
1도 관심없는 운동  (0) 2020.06.17
탈모  (0) 2020.06.11
추억이란..  (0) 2020.06.09
코로나가 가져다 준 시간  (0) 2020.06.06
posted by 파인진
:
인공지능 2020. 6. 16. 15:08


반응형

자연 언어 처리(NLP)를 위한 종래의 방법을 넘은 성능을 발휘한다. BERT는 자연언어 처리 태스크를 교사 없이 양방향으로 사전학습하는 첫 시스템이다.

www.aitimes.kr/news/articleView.html?idxno=13117

 

인공지능(AI) 언어모델 ‘BERT(버트)'는 무엇인가 - 인공지능신문

지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, ...

www.aitimes.kr

지난해 11월, 구글이 공개한 인공지능(AI) 언어모델 ‘BERT(이하 버트, Bidirectional Encoder Representations from Transformers)’는 일부 성능 평가에서 인간보다 더 높은 정확도를 보이며 2018년 말 현재, 자연 언어 처리(NLP) AI의 최첨단 딥러닝 모델이다.

또한 BERT는 언어표현 사전학습의 새로운 방법으로 그 의미는 '큰 텍스트 코퍼스(Wikipedia와 같은)'를 이용하여 범용목적의 '언어 이해'(language understanding)' 모델을 훈련시키는 것과 그 모델에 관심 있는 실제의 자연 언어 처리 태스크(질문·응답 등)에 적용하는 것이다.

특히 BERT는 종래보다 우수한 성능을 발휘한다. BERT는 자연언어 처리 태스크를 교육 없이 양방향으로 사전학습하는 첫 시스템이기 때문이다. 교육 없음이란 BERT가 보통의 텍스트 코퍼스만을 이용해 훈련되고 있다는 것을 의미한다. 이것은 웹(Web) 상에서 막대한 양의 보통 텍스트 데이터가 여러 언어로 이용 가능하기 때문에 중요한 특징으로 꼽는다.

사전학습을 마친 특징 표현은 문맥에 '의존하는 방법'와 '의존하지 않는 방법'의 어느 방법도 있을 수 있다. 또 문맥에 의존하는 특징적인 표현은 단방향인 경우와 혹은 양방향일 경우가 있다. word2vec나 GloVe와 같이 문맥에 의존하지 않는 모델에서는, 어휘에 포함되는 각 단어마다 '단어 삽입(word embedding)'이라는 특징 표현을 생성한다. 따라서, 'bank'라는 단어는 'bank deposit' 또는 'river bank'과 같은 특징으로 표현되며, 문맥에 의존하는 모델에서는 문장에 포함되는 다른 단어를 바탕으로 각 단어의 특징을 표현 생성한다.
BERT는 양방향이며 OpenAI GPT는 단방향이며 ELMo는 양방향이다(논문 캡처)
BERT는 양방향이며 OpenAI GPT는 단방향이며 ELMo는 양방향이다(논문 캡처)

BERT는 문맥에 의존하는 특징적인 표현의 전학습을 실시하는 대응을 바탕으로 구축되었다. 그러한 대응은 Semi-supervised Sequence Learning, Generative Pre-Training, ELMo, 및 ULMFit를 포함하며, 대응에 의한 모델은 모두 단방향 혹은 얕은 양방향이다. 각 단어는 단지 그 왼쪽(혹은 오른쪽)에 존재하는 단어에 의해서만 문맥의 고려가 되는 것을 의미한다.

예를 들어, I made a bank deposit라는 문장은 bank의 단방향 특징표현은 단지 I made a만에 의해 결정되며, deposit은 고려되지 않는다. 몇개의 이전의 대응에서는 분리한 좌문맥모델과 우문맥모델에 의한 특징표현을 조합하고 있었지만, 이것은 얕은 양방향 방법이다. BERT는 bank를 왼쪽과 오른쪽 양쪽의 문맥 I made a ... deposit을 딥 뉴럴 네트워크(Deposit)의 최하층에서 이용해 특징을 표현하기 때문에 BERT는 '딥 양방향(deeply bidirectional)'이다.

BERT는 간단한 접근법을 사용한다. 입력에서 단어의 15%를 숨기고 딥 양방향 Transformer encoder(관련 논문다운)를 통해 전체 시퀀스를 실행한 다음 마스크 된 단어만 예측한다. 예를 들어, 아래와 같이 문간의 관계를 학습하기 위해서는 임의의 단언어 코퍼스에서 생성 가능한 심플한 작업을 이용하여 학습한다. A와 B의 두 개의 글을 받았을 때 B가 A의 뒤에 오는 실제 문장인지, 코퍼스 안의 랜덤한 글인지를 판정하는 태스크이다.

또한 큰 모델(12층에서 24층의 Transformer)을 큰 코퍼스(Wikipedia + BookCorpus)로 긴 시간을 들여(100만 갱신 스텝) 훈련했다. 그것이 BERT이며, 이용은 '사전학습'과 '전이학습'의 2단계로 구분된다.

사전학습(pre-training)은 상당히 고가로 4에서 16개의 Cloud TPU로 4일(12 층의 Transformer 모델의 경우 4개의 TPU를 사용하여 4일, 24층 Transformer 모델의 경우 16개의 TPU를 사용하여 4일이라는 의미) 각 언어마다 1회만의 순서이다. 자연 언어 처리 개발자는 처음부터 자신의 모델을 사전 학습할 필요가 없다.

전이학습(Fine-tuning)은 저렴하며, 논문(아래 참조)과 똑같은 사전학습이 끝난 모델을 사용하여 하나의 Cloud TPU를 이용, 1시간 GPU를 사용하면 2, 3시간만에 재현할 수 있다. 예를 들면 SQuAD는 하나의 Cloud TPU를 이용 30분으로 하나의 시스템으로서는 최첨단(state-of-the-art)인 91.0%의 Dev F1을 달성할 수 있다.

이밖에 BERT의 또 다른 중요한 측면은 많은 종류의 자연 언어 처치 태스크로 인해 매우 쉽게 채택될 수 있다. 논문 중에서 문장 수준 (SST-2 등), 문장 쌍 수준(MultiNLI 등), 단어 수준(NER 등) 스팬 레벨 2 (SQuAD 등)의 태스크에 대해서 거의 태스크 특유의 변경을 실시하는 일 없이, 최첨단 결과를 얻을 수 있는 것을 나타내고 있다.

참고) 'BERT: 언어 이해를 위한 양방향 트랜스포머 사전 학습(BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding)' 논문(다운받기), BERT Google-research의 깃허브(GitHub) (바로가기)


반응형

'인공지능' 카테고리의 다른 글

pretrained model은 대단할까?  (0) 2020.06.16
posted by 파인진
:
관심뉴스 2020. 6. 16. 11:08


반응형

https://news.v.daum.net/v/20200616094956301

'굿바이 2G'에 800㎒ 주파수 전쟁 불붙는다

[아시아경제 구채은 기자] SK텔레콤이 2G 종료로 반납하는 주파수 800㎒ 대역이 5G에 할당되면서 향후 5G 네트워크 품질에 '키맨'으로 부각될 전망이다. 800㎒ 대역은 2018년 이통 3사가 5G 용도로 할당

news.v.daum.net


800㎒ 대역 5G 용도로 할당
총 30㎒ 대역 폭 '주파수 경매' 붙을 듯
800㎒ 회절률 좋아 '알짜' 평가
5G 커버리지 확대 '키맨' 부각 전망



5G에서 800㎒ 대역이 중요한 이유는 기존 할당 고주파 대역인 3.5㎓의 약점을 보완해 통신 품질을 높일 수 있기 때문이다. 3.5㎓는 직진성이 강한 반면 장애물을 만나면 반사율이 높고 회절률이 낮다. 전파 도달거리가 짧고 장애물 우회가 어렵다는 얘기다. 유리나 벽돌, 시멘트 같은 건축자재를 만나면 신호가 떨어져 실외에서 실내로 전달되는 신호의 세기도 약해진다. 5G가 '실내에서 속터지게 안터진다'는 오명을 쓰고 있는 이유기도 하다. 기지국 반경도 짧아 4G때보다 5배가량 더욱 촘촘하게 기지국을 설치해야 한다. 이같은 문제는 3.5㎓보다 효율성이 좋아 이통사들이 도입을 추진하고 있는 28㎓도 마찬가지다. 반면 저주파대역인 800㎒은 기지국을 조금만 설치해도 전파경로가 넓어 기지국 투자비를 절감할 수 있다. 업계 관계자는 "고주파대의 장점인 빠른 속도를 유지하면서 실내 신호 약화 등의 약점을 보완하려면 저주파 대역의 적절한 혼용이 필요하다"

신규 폰에서만 저대역을 받을수있나?
아니면 이미판매된 5G단말기도 가능할까?


반응형
posted by 파인진
: